Vielen Dank für Ihr Interesse an unserer Arbeit. Möglicherweise möchten Sie auch unsere neuen Updates zu den winzigen Modellen für Anime-Bilder und -Videos in Real-ESrgan überprüfen ?
GFPGGAN zielt darauf ab, einen praktischen Algorithmus für die reine Gesichtsrestaurierung zu entwickeln.
Es nutzt reichhaltige und vielfältige Priors, die in einem vorbereiteten Gesicht Gan ( z .
❓ Häufig gestellte Fragen finden Sie in den FAQ.MD.
Aktualisierungen
Wenn GFPgan bei Ihren Fotos/Projekten hilfreich ist, helfen Sie bitte diesem Repo oder empfehlen Sie es Ihren Freunden. Danke? Andere empfohlene Projekte:
[Papier] [Projektseite] [Demo]
Xintao Wang, Yu Li, Honglun Zhang, Ying Shan
Angewandter Forschungszentrum (ARC), Tencent PCG
Wir bieten jetzt eine saubere Version von GFPGAN, für die keine maßgeschneiderten CUDA -Erweiterungen erforderlich sind.
Wenn Sie das Originalmodell in unserem Papier verwenden möchten, finden Sie in PapermoModel.md zur Installation.
Klonrepo
git clone https://github.com/TencentARC/GFPGAN.git
cd GFPGANInstallieren Sie abhängige Pakete
# Install basicsr - https://github.com/xinntao/BasicSR
# We use BasicSR for both training and inference
pip install basicsr
# Install facexlib - https://github.com/xinntao/facexlib
# We use face detection and face restoration helper in the facexlib package
pip install facexlib
pip install -r requirements.txt
python setup.py develop
# If you want to enhance the background (non-face) regions with Real-ESRGAN,
# you also need to install the realesrgan package
pip install realesrganWir nehmen die V1.3 -Version für ein Beispiel. Weitere Modelle finden Sie hier.
Download vorgebildete Modelle: gfpganv1.3.pth
wget https://github.com/TencentARC/GFPGAN/releases/download/v1.3.0/GFPGANv1.3.pth -P experiments/pretrained_modelsSchluss!
python inference_gfpgan.py -i inputs/whole_imgs -o results -v 1.3 -s 2 Usage: python inference_gfpgan.py -i inputs/whole_imgs -o results -v 1.3 -s 2 [options]...
-h show this help
-i input Input image or folder. Default: inputs/whole_imgs
-o output Output folder. Default: results
-v version GFPGAN model version. Option: 1 | 1.2 | 1.3. Default: 1.3
-s upscale The final upsampling scale of the image. Default: 2
-bg_upsampler background upsampler. Default: realesrgan
-bg_tile Tile size for background sampler, 0 for no tile during testing. Default: 400
-suffix Suffix of the restored faces
-only_center_face Only restore the center face
-aligned Input are aligned faces
-ext Image extension. Options: auto | jpg | png, auto means using the same extension as inputs. Default: autoWenn Sie das Originalmodell in unserem Papier verwenden möchten, finden Sie in PapermoModel.md zur Installation und Inferenz.
| Version | Modellname | Beschreibung |
|---|---|---|
| V1.3 | Gfpganv1.3.pth | Basierend auf v1.2; Weitere natürliche Wiederherstellungsergebnisse; Bessere Ergebnisse bei Eingaben mit geringer Qualität / hochwertiger Qualität. |
| V1.2 | GFPGancleanv1-Noce-C2.PTH | Keine Farbisation; Es sind keine Cuda -Erweiterungen erforderlich. Trainiert mit mehr Daten mit Vorverarbeitung. |
| V1 | Gfpganv1.pth | Das Papiermodell mit Farbe. |
Die Vergleiche sind im Vergleich.md.
Beachten Sie, dass V1.3 nicht immer besser ist als V1.2. Möglicherweise müssen Sie verschiedene Modelle basierend auf Ihrem Zweck und Ihren Eingaben auswählen.
| Version | Stärken | Schwächen |
|---|---|---|
| V1.3 | ✓ Natürliche Ausgaben ✓Betterergebnisse zu sehr minderwertigen Eingaben ✓ Arbeiten Sie an relativ hochwertigen Eingaben ✓ kann wiederholt (zweimal) Restaurationen haben | ✗ Nicht sehr scharf ✗ eine leichte Veränderung der Identität haben |
| V1.2 | ✓ Schärfere Ausgabe ✓ Mit Schönheits -Make -up | ✗ Einige Ausgänge sind unnatürlich |
Hier finden Sie mehr Modelle (z. B. die Diskriminatoren) : [Google Drive] oder [Tencent Cloud 腾讯微云]
Wir bieten die Trainingscodes für GFPGAN (in unserem Artikel verwendet).
Sie könnten es nach Ihren eigenen Bedürfnissen verbessern.
Tipps
Verfahren
(Sie können eine einfache Version ausprobieren ( options/train_gfpgan_v1_simple.yml ), für die keine Face -Komponenten -Wahrzeichen erforderlich sind.)
Datensatzvorbereitung: FFHQ
Download vor ausgebildete Modelle und andere Daten. Setzen Sie sie in den Ordner experiments/pretrained_models ein.
Ändern Sie die options/train_gfpgan_v1.yml entsprechend.
Ausbildung
Python -m Torch.distributed.launch --nproc_per_node = 4 - -master_port = 22021 gfpgan/train.py -opt Optionen/train_gfpgan_v1.yml -Launcher Pytorch
GFPGAN wird unter Apache Lizenzversion 2.0 veröffentlicht.
@InProceedings{wang2021gfpgan,
author = {Xintao Wang and Yu Li and Honglun Zhang and Ying Shan},
title = {Towards Real-World Blind Face Restoration with Generative Facial Prior},
booktitle={The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},
year = {2021}
}
Wenn Sie Fragen haben, senden Sie bitte eine E -Mail an [email protected] oder [email protected] .