Merci pour votre intérêt pour notre travail. Vous pouvez également vérifier nos nouvelles mises à jour sur les minuscules modèles pour les images et vidéos d'anime dans RealSrgan ?
GFPGAN vise à développer un algorithme pratique pour la restauration du visage réel .
Il exploite des prieurs riches et divers encapsulés dans un visage de visage pré-entraîné ( par exemple , stylegan2) pour la restauration du visage aveugle.
❓ Des questions fréquemment posées se trouvent dans FAQ.MD.
Mises à jour
Si GFPGAN est utile dans vos photos / projets, veuillez aider à ce repos ou le recommander à vos amis. Merci? Autres projets recommandés:
[Papier] [Page du projet] [Demo]
Xintao Wang, Yu Li, Honglun Zhang, Ying Shan
Centre de recherche appliquée (ARC), Tencent PCG
Nous fournissons maintenant une version propre de GFPGAN, qui ne nécessite pas d'extensions CUDA personnalisées.
Si vous souhaitez utiliser le modèle d'origine dans notre article, veuillez consulter PaperModel.md pour l'installation.
Repo clone
git clone https://github.com/TencentARC/GFPGAN.git
cd GFPGANInstaller des packages dépendants
# Install basicsr - https://github.com/xinntao/BasicSR
# We use BasicSR for both training and inference
pip install basicsr
# Install facexlib - https://github.com/xinntao/facexlib
# We use face detection and face restoration helper in the facexlib package
pip install facexlib
pip install -r requirements.txt
python setup.py develop
# If you want to enhance the background (non-face) regions with Real-ESRGAN,
# you also need to install the realesrgan package
pip install realesrganNous prenons la version V1.3 pour un exemple. Plus de modèles peuvent être trouvés ici.
Télécharger les modèles pré-formés: gfpganv1.3.pth
wget https://github.com/TencentARC/GFPGAN/releases/download/v1.3.0/GFPGANv1.3.pth -P experiments/pretrained_modelsInférence!
python inference_gfpgan.py -i inputs/whole_imgs -o results -v 1.3 -s 2 Usage: python inference_gfpgan.py -i inputs/whole_imgs -o results -v 1.3 -s 2 [options]...
-h show this help
-i input Input image or folder. Default: inputs/whole_imgs
-o output Output folder. Default: results
-v version GFPGAN model version. Option: 1 | 1.2 | 1.3. Default: 1.3
-s upscale The final upsampling scale of the image. Default: 2
-bg_upsampler background upsampler. Default: realesrgan
-bg_tile Tile size for background sampler, 0 for no tile during testing. Default: 400
-suffix Suffix of the restored faces
-only_center_face Only restore the center face
-aligned Input are aligned faces
-ext Image extension. Options: auto | jpg | png, auto means using the same extension as inputs. Default: autoSi vous souhaitez utiliser le modèle d'origine dans notre article, veuillez consulter PaperModel.md pour l'installation et l'inférence.
| Version | Nom du modèle | Description |
|---|---|---|
| V1.3 | Gfpganv1.3.pth | Basé sur la v1.2; Résultats de restauration plus naturels ; De meilleurs résultats sur des entrées de très faible qualité / haute qualité. |
| V1.2 | Gfpgancleanv1-noce-c2.pth | Pas de colorisation; Aucune extension CUDA n'est requise. Formé avec plus de données avec le prétraitement. |
| V1 | Gfpganv1.pth | Le modèle papier, avec colorisation. |
Les comparaisons sont en comparaison.md.
Notez que V1.3 n'est pas toujours meilleur que V1.2. Vous devrez peut-être sélectionner différents modèles en fonction de votre objectif et de vos entrées.
| Version | Forces | Faiblesse |
|---|---|---|
| V1.3 | ✓ Sorties naturelles ✓Better Résultats sur des entrées de très faible qualité ✓ Travailler sur des entrées de haute qualité ✓ Peut avoir des restaurations répétées (deux fois) | ✗ Pas très tranchant ✗ Avoir un léger changement sur l'identité |
| V1.2 | ✓ Sortie plus nette ✓ Avec maquillage de beauté | ✗ Certaines sorties ne sont pas naturelles |
Vous pouvez trouver plus de modèles (comme les discriminateurs) ici: [Google Drive], ou [Tencent Cloud 腾讯微云]
Nous fournissons les codes de formation pour GFPGAN (utilisés dans notre article).
Vous pouvez l'améliorer en fonction de vos propres besoins.
Conseils
Procédures
(Vous pouvez essayer une version simple ( options/train_gfpgan_v1_simple.yml ) qui ne nécessite pas de repères de composants faciaux.)
Préparation de l'ensemble de données: FFHQ
Téléchargez des modèles prélevés et d'autres données. Mettez-les dans le dossier experiments/pretrained_models .
Modifiez les options/train_gfpgan_v1.yml en conséquence.
Entraînement
python -m torch.distributed.launch --nproc_per_node = 4 --master_port = 22021 gfpgan / train.py -opt Options / Train_gfpgan_v1.yml --Launcher pytorch
GFPGAN est publié sous la version 2.0 de la licence Apache.
@InProceedings{wang2021gfpgan,
author = {Xintao Wang and Yu Li and Honglun Zhang and Ying Shan},
title = {Towards Real-World Blind Face Restoration with Generative Facial Prior},
booktitle={The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},
year = {2021}
}
Si vous avez une question, veuillez envoyer un courriel [email protected] ou [email protected] .