Page d'accueil>Lié à la programmation>Python
  1. ? Demo en ligne mis à jour :. Voici la sauvegarde.
  2. ? Démo en ligne mis à jour :
  3. Démo Colab pour GFPGAN; (Une autre démo Colab pour le modèle papier d'origine)

Merci pour votre intérêt pour notre travail. Vous pouvez également vérifier nos nouvelles mises à jour sur les minuscules modèles pour les images et vidéos d'anime dans RealSrgan ?

GFPGAN vise à développer un algorithme pratique pour la restauration du visage réel .
Il exploite des prieurs riches et divers encapsulés dans un visage de visage pré-entraîné ( par exemple , stylegan2) pour la restauration du visage aveugle.

❓ Des questions fréquemment posées se trouvent dans FAQ.MD.

Mises à jour


Si GFPGAN est utile dans vos photos / projets, veuillez aider à ce repos ou le recommander à vos amis. Merci? Autres projets recommandés:
▶ ️ Real-esrgan: un algorithme pratique pour la restauration générale de l'image
▶ ️ Basicsr: une boîte à outils d'image et de restauration vidéo open source
▶ ️ FACEXLIB: Une collection qui offre des fonctions de relation faciale utiles
▶ ️ HandyView: une visionneuse d'images basée sur PYQT5 qui est pratique pour la vue et la comparaison


GFP-GAN: Vers la restauration du visage aveugle du monde réel avec un visage génératif avant

[Papier] [Page du projet] [Demo]
Xintao Wang, Yu Li, Honglun Zhang, Ying Shan
Centre de recherche appliquée (ARC), Tencent PCG


? Dépendances et installation

Installation

Nous fournissons maintenant une version propre de GFPGAN, qui ne nécessite pas d'extensions CUDA personnalisées.
Si vous souhaitez utiliser le modèle d'origine dans notre article, veuillez consulter PaperModel.md pour l'installation.

  1. Repo clone

    git clone https://github.com/TencentARC/GFPGAN.git
    cd GFPGAN
  2. Installer des packages dépendants

     # Install basicsr - https://github.com/xinntao/BasicSR
    # We use BasicSR for both training and inference
    pip install basicsr
    
    # Install facexlib - https://github.com/xinntao/facexlib
    # We use face detection and face restoration helper in the facexlib package
    pip install facexlib
    
    pip install -r requirements.txt
    python setup.py develop
    
    # If you want to enhance the background (non-face) regions with Real-ESRGAN,
    # you also need to install the realesrgan package
    pip install realesrgan

⚡ Inférence rapide

Nous prenons la version V1.3 pour un exemple. Plus de modèles peuvent être trouvés ici.

Télécharger les modèles pré-formés: gfpganv1.3.pth

wget https://github.com/TencentARC/GFPGAN/releases/download/v1.3.0/GFPGANv1.3.pth -P experiments/pretrained_models

Inférence!

python inference_gfpgan.py -i inputs/whole_imgs -o results -v 1.3 -s 2
 Usage: python inference_gfpgan.py -i inputs/whole_imgs -o results -v 1.3 -s 2 [options]...

  -h                   show this help
  -i input             Input image or folder. Default: inputs/whole_imgs
  -o output            Output folder. Default: results
  -v version           GFPGAN model version. Option: 1 | 1.2 | 1.3. Default: 1.3
  -s upscale           The final upsampling scale of the image. Default: 2
  -bg_upsampler        background upsampler. Default: realesrgan
  -bg_tile             Tile size for background sampler, 0 for no tile during testing. Default: 400
  -suffix              Suffix of the restored faces
  -only_center_face    Only restore the center face
  -aligned             Input are aligned faces
  -ext                 Image extension. Options: auto | jpg | png, auto means using the same extension as inputs. Default: auto

Si vous souhaitez utiliser le modèle d'origine dans notre article, veuillez consulter PaperModel.md pour l'installation et l'inférence.

? Zoo modèle

Version Nom du modèle Description
V1.3 Gfpganv1.3.pth Basé sur la v1.2; Résultats de restauration plus naturels ; De meilleurs résultats sur des entrées de très faible qualité / haute qualité.
V1.2 Gfpgancleanv1-noce-c2.pth Pas de colorisation; Aucune extension CUDA n'est requise. Formé avec plus de données avec le prétraitement.
V1 Gfpganv1.pth Le modèle papier, avec colorisation.

Les comparaisons sont en comparaison.md.

Notez que V1.3 n'est pas toujours meilleur que V1.2. Vous devrez peut-être sélectionner différents modèles en fonction de votre objectif et de vos entrées.

Version Forces Faiblesse
V1.3 ✓ Sorties naturelles
✓Better Résultats sur des entrées de très faible qualité
✓ Travailler sur des entrées de haute qualité
✓ Peut avoir des restaurations répétées (deux fois)
✗ Pas très tranchant
✗ Avoir un léger changement sur l'identité
V1.2 ✓ Sortie plus nette
✓ Avec maquillage de beauté
✗ Certaines sorties ne sont pas naturelles

Vous pouvez trouver plus de modèles (comme les discriminateurs) ici: [Google Drive], ou [Tencent Cloud 腾讯微云]

Entraînement

Nous fournissons les codes de formation pour GFPGAN (utilisés dans notre article).
Vous pouvez l'améliorer en fonction de vos propres besoins.

Conseils

  1. Des faces plus de haute qualité peuvent améliorer la qualité de restauration.
  2. Vous devrez peut-être effectuer un prétraitement, comme le maquillage de beauté.

Procédures

(Vous pouvez essayer une version simple ( options/train_gfpgan_v1_simple.yml ) qui ne nécessite pas de repères de composants faciaux.)

  1. Préparation de l'ensemble de données: FFHQ

  2. Téléchargez des modèles prélevés et d'autres données. Mettez-les dans le dossier experiments/pretrained_models .

    1. Modèle pré-formé Stylegan2: stylegan2_512_cmul1_ffhq_b12g4_scratch_800k.pth
    2. Emplacements des composants de ffhq: ffhq_eye_mouth_landmarks_512.pth
    3. Un modèle à arcface simple: arcface_resnet18.pth
  3. Modifiez les options/train_gfpgan_v1.yml en conséquence.

  4. Entraînement

python -m torch.distributed.launch --nproc_per_node = 4 --master_port = 22021 gfpgan / train.py -opt Options / Train_gfpgan_v1.yml --Launcher pytorch

Licence et reconnaissance

GFPGAN est publié sous la version 2.0 de la licence Apache.

Bibtex

 @InProceedings{wang2021gfpgan,
    author = {Xintao Wang and Yu Li and Honglun Zhang and Ying Shan},
    title = {Towards Real-World Blind Face Restoration with Generative Facial Prior},
    booktitle={The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},
    year = {2021}
}

? Contact

Si vous avez une question, veuillez envoyer un courriel [email protected] ou [email protected] .

Développer
Informations supplémentaires