Startseite>Programmierbezogen>Python
  1. ? Online -Demo aktualisiert :. Hier ist das Backup.
  2. ? Online -Demo aktualisiert :
  3. Colab -Demo für GFPgan; (Eine weitere Colab -Demo für das Originalpapiermodell)

Vielen Dank für Ihr Interesse an unserer Arbeit. Möglicherweise möchten Sie auch unsere neuen Updates zu den winzigen Modellen für Anime-Bilder und -Videos in Real-ESrgan überprüfen ?

GFPGGAN zielt darauf ab, einen praktischen Algorithmus für die reine Gesichtsrestaurierung zu entwickeln.
Es nutzt reichhaltige und vielfältige Priors, die in einem vorbereiteten Gesicht Gan ( z .

❓ Häufig gestellte Fragen finden Sie in den FAQ.MD.

Aktualisierungen


Wenn GFPgan bei Ihren Fotos/Projekten hilfreich ist, helfen Sie bitte diesem Repo oder empfehlen Sie es Ihren Freunden. Danke? Andere empfohlene Projekte:
▶ ️ Real-ESRGAN: Ein praktischer Algorithmus für die allgemeine Bildwiederherstellung
▶ ️ BasicsR: Ein Open-Source-Image- und Video-Restaurierungs-Toolbox
▶ ️ FaceXlib: Eine Sammlung, die nützliche Gesichtsbeziehungsfunktionen bietet
▶ ️ HandyView: Ein pyqt5-basierter Bildbetriebsbasis, der für die Ansicht und den Vergleich praktisch ist


GFP-GAN: Auf dem Weg zu realer blinder Gesichtsrestaurierung mit generativem Gesichtsbehandlung Prior

[Papier] [Projektseite] [Demo]
Xintao Wang, Yu Li, Honglun Zhang, Ying Shan
Angewandter Forschungszentrum (ARC), Tencent PCG


? Abhängigkeiten und Installation

Installation

Wir bieten jetzt eine saubere Version von GFPGAN, für die keine maßgeschneiderten CUDA -Erweiterungen erforderlich sind.
Wenn Sie das Originalmodell in unserem Papier verwenden möchten, finden Sie in PapermoModel.md zur Installation.

  1. Klonrepo

    git clone https://github.com/TencentARC/GFPGAN.git
    cd GFPGAN
  2. Installieren Sie abhängige Pakete

     # Install basicsr - https://github.com/xinntao/BasicSR
    # We use BasicSR for both training and inference
    pip install basicsr
    
    # Install facexlib - https://github.com/xinntao/facexlib
    # We use face detection and face restoration helper in the facexlib package
    pip install facexlib
    
    pip install -r requirements.txt
    python setup.py develop
    
    # If you want to enhance the background (non-face) regions with Real-ESRGAN,
    # you also need to install the realesrgan package
    pip install realesrgan

⚡ schnelle Inferenz

Wir nehmen die V1.3 -Version für ein Beispiel. Weitere Modelle finden Sie hier.

Download vorgebildete Modelle: gfpganv1.3.pth

wget https://github.com/TencentARC/GFPGAN/releases/download/v1.3.0/GFPGANv1.3.pth -P experiments/pretrained_models

Schluss!

python inference_gfpgan.py -i inputs/whole_imgs -o results -v 1.3 -s 2
 Usage: python inference_gfpgan.py -i inputs/whole_imgs -o results -v 1.3 -s 2 [options]...

  -h                   show this help
  -i input             Input image or folder. Default: inputs/whole_imgs
  -o output            Output folder. Default: results
  -v version           GFPGAN model version. Option: 1 | 1.2 | 1.3. Default: 1.3
  -s upscale           The final upsampling scale of the image. Default: 2
  -bg_upsampler        background upsampler. Default: realesrgan
  -bg_tile             Tile size for background sampler, 0 for no tile during testing. Default: 400
  -suffix              Suffix of the restored faces
  -only_center_face    Only restore the center face
  -aligned             Input are aligned faces
  -ext                 Image extension. Options: auto | jpg | png, auto means using the same extension as inputs. Default: auto

Wenn Sie das Originalmodell in unserem Papier verwenden möchten, finden Sie in PapermoModel.md zur Installation und Inferenz.

? Modellzoo

Version Modellname Beschreibung
V1.3 Gfpganv1.3.pth Basierend auf v1.2; Weitere natürliche Wiederherstellungsergebnisse; Bessere Ergebnisse bei Eingaben mit geringer Qualität / hochwertiger Qualität.
V1.2 GFPGancleanv1-Noce-C2.PTH Keine Farbisation; Es sind keine Cuda -Erweiterungen erforderlich. Trainiert mit mehr Daten mit Vorverarbeitung.
V1 Gfpganv1.pth Das Papiermodell mit Farbe.

Die Vergleiche sind im Vergleich.md.

Beachten Sie, dass V1.3 nicht immer besser ist als V1.2. Möglicherweise müssen Sie verschiedene Modelle basierend auf Ihrem Zweck und Ihren Eingaben auswählen.

Version Stärken Schwächen
V1.3 ✓ Natürliche Ausgaben
✓Betterergebnisse zu sehr minderwertigen Eingaben
✓ Arbeiten Sie an relativ hochwertigen Eingaben
✓ kann wiederholt (zweimal) Restaurationen haben
✗ Nicht sehr scharf
✗ eine leichte Veränderung der Identität haben
V1.2 ✓ Schärfere Ausgabe
✓ Mit Schönheits -Make -up
✗ Einige Ausgänge sind unnatürlich

Hier finden Sie mehr Modelle (z. B. die Diskriminatoren) : [Google Drive] oder [Tencent Cloud 腾讯微云]

Ausbildung

Wir bieten die Trainingscodes für GFPGAN (in unserem Artikel verwendet).
Sie könnten es nach Ihren eigenen Bedürfnissen verbessern.

Tipps

  1. Hochwertigere Gesichter können die Restaurierungsqualität verbessern.
  2. Möglicherweise müssen Sie einige Vorverarbeitung durchführen, z. B. das Schönheits-Make-up.

Verfahren

(Sie können eine einfache Version ausprobieren ( options/train_gfpgan_v1_simple.yml ), für die keine Face -Komponenten -Wahrzeichen erforderlich sind.)

  1. Datensatzvorbereitung: FFHQ

  2. Download vor ausgebildete Modelle und andere Daten. Setzen Sie sie in den Ordner experiments/pretrained_models ein.

    1. Vorausgebildeter Stylegan2-Modell: Stylegan2_512_CMUL1_FFHQ_B12G4_SCRATCH_800K.PTH
    2. Komponentenpositionen von FFHQ: FFHQ_EYE_MOUTH_LANDMARKS_512.PTH
    3. Ein einfaches Arcface -Modell: Arcface_Resnet18.PTH
  3. Ändern Sie die options/train_gfpgan_v1.yml entsprechend.

  4. Ausbildung

Python -m Torch.distributed.launch --nproc_per_node = 4 - -master_port = 22021 gfpgan/train.py -opt Optionen/train_gfpgan_v1.yml -Launcher Pytorch

Lizenz und Bestätigung

GFPGAN wird unter Apache Lizenzversion 2.0 veröffentlicht.

Bibtex

 @InProceedings{wang2021gfpgan,
    author = {Xintao Wang and Yu Li and Honglun Zhang and Ying Shan},
    title = {Towards Real-World Blind Face Restoration with Generative Facial Prior},
    booktitle={The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},
    year = {2021}
}

? Kontakt

Wenn Sie Fragen haben, senden Sie bitte eine E -Mail an [email protected] oder [email protected] .

Expandieren
Zusätzliche Informationen