Página Inicial>Relacionado com a programação>Pitão
  1. ? Demonstração on -line atualizada :. Aqui está o backup.
  2. ? Demoção online atualizada :
  3. Demoção colab para GFPGAN; (Outra demonstração do Colab para o modelo de papel original)

Obrigado pelo seu interesse em nosso trabalho. Você também pode verificar nossas novas atualizações sobre os pequenos modelos para imagens e vídeos de anime no Real-Esrgan ?

O GFPGAN visa desenvolver um algoritmo prático para a restauração de rosto do mundo real .
Ele aproveita os anteriores ricos e diversos encapsulados em um gan face pré -treinamento ( por exemplo , stylegan2) para restauração de rosto cego.

❓ Perguntas frequentes podem ser encontradas no FAQ.MD.

Atualizações


Se o GFPGAN for útil em suas fotos/projetos, ajude este repositório ou recomende a seus amigos. Obrigado? Outros projetos recomendados:
▶ ️ Real-esrgan: um algoritmo prático para restauração geral de imagem
▶ ️ BasicsR: uma caixa de ferramentas de imagem de código aberto e restauração de vídeo
▶ ️ FACEXLIB: Uma coleção que fornece funções úteis de relação de rosto
▶ ️ HandyView: um visualizador de imagens baseado em PYQT5 que é útil para visualização e comparação


GFP-GAN: Rumo à restauração de rosto cego do mundo real com o Facial Prior generativo

[Paper] [Página do projeto] [Demo]
Xintao Wang, Yu Li, Hongglun Zhang, Ying Shan
Centro de Pesquisa Aplicada (ARC), Tencent PCG


? Dependências e instalação

Instalação

Agora fornecemos uma versão limpa do GFPGAN, que não requer extensões CUDA personalizadas.
Se você deseja usar o modelo original em nosso artigo, consulte o PapamModel.md para instalação.

  1. Repo Clone

    git clone https://github.com/TencentARC/GFPGAN.git
    cd GFPGAN
  2. Instale pacotes dependentes

     # Install basicsr - https://github.com/xinntao/BasicSR
    # We use BasicSR for both training and inference
    pip install basicsr
    
    # Install facexlib - https://github.com/xinntao/facexlib
    # We use face detection and face restoration helper in the facexlib package
    pip install facexlib
    
    pip install -r requirements.txt
    python setup.py develop
    
    # If you want to enhance the background (non-face) regions with Real-ESRGAN,
    # you also need to install the realesrgan package
    pip install realesrgan

⚡ Inferência rápida

Tomamos a versão V1.3 para um exemplo. Mais modelos podem ser encontrados aqui.

Faça o download dos modelos pré-treinados: GFPGANV1.3.PTH

wget https://github.com/TencentARC/GFPGAN/releases/download/v1.3.0/GFPGANv1.3.pth -P experiments/pretrained_models

Inferência!

python inference_gfpgan.py -i inputs/whole_imgs -o results -v 1.3 -s 2
 Usage: python inference_gfpgan.py -i inputs/whole_imgs -o results -v 1.3 -s 2 [options]...

  -h                   show this help
  -i input             Input image or folder. Default: inputs/whole_imgs
  -o output            Output folder. Default: results
  -v version           GFPGAN model version. Option: 1 | 1.2 | 1.3. Default: 1.3
  -s upscale           The final upsampling scale of the image. Default: 2
  -bg_upsampler        background upsampler. Default: realesrgan
  -bg_tile             Tile size for background sampler, 0 for no tile during testing. Default: 400
  -suffix              Suffix of the restored faces
  -only_center_face    Only restore the center face
  -aligned             Input are aligned faces
  -ext                 Image extension. Options: auto | jpg | png, auto means using the same extension as inputs. Default: auto

Se você deseja usar o modelo original em nosso artigo, consulte o PapamModel.md para instalação e inferência.

? Modelo Zoológico

Versão Nome do modelo Descrição
V1.3 GFPGANV1.3.PTH Com base em v1.2; Resultados de restauração mais naturais ; melhores resultados em entradas de baixa qualidade / alta qualidade.
V1.2 GfpGancleanv1-NOCE-C2.PTH Sem coloração; Não são necessárias extensões de CUDA. Treinado com mais dados com pré-processamento.
V1 Gfpganv1.tth O modelo de papel, com colorização.

As comparações estão em comparações.md.

Observe que v1.3 nem sempre é melhor que v1.2. Pode ser necessário selecionar diferentes modelos com base em seu objetivo e insumos.

Versão Pontos fortes Fraquezas
V1.3 ✓ Saídas naturais
✓ Better resulta em entradas de baixa qualidade
✓ Trabalhe em entradas relativamente de alta qualidade
✓ Pode ter restaurações repetidas (duas vezes)
✗ Não muito afiado
✗ Tenha uma ligeira mudança na identidade
V1.2 ✓ Saída mais nítida
✓ Com maquiagem de beleza
✗ Algumas saídas não são naturais

Você pode encontrar mais modelos (como os discriminadores) aqui: [Google Drive] ou [Tencent Cloud 腾讯微云]

Treinamento

Fornecemos os códigos de treinamento para o GFPGAN (usado em nosso artigo).
Você pode melhorá -lo de acordo com suas próprias necessidades.

Pontas

  1. Rostos mais de alta qualidade podem melhorar a qualidade da restauração.
  2. Pode ser necessário realizar algum pré-processamento, como a composição da beleza.

Procedimentos

(Você pode experimentar uma versão simples ( options/train_gfpgan_v1_simple.yml ) que não requer marcos de componentes de face.)

  1. Preparação do conjunto de dados: ffhq

  2. Faça o download de modelos pré-treinados e outros dados. Coloque -os na pasta experiments/pretrained_models .

    1. Modelo de Stylegan2 pré-treinado: stylegan2_512_cmul1_ffhq_b12g4_scratch_800k.pth
    2. Locais de componentes de ffhq: ffhq_eye_mouth_landmarks_512.tth
    3. Um modelo simples de arcface: arcface_resnet18.tth
  3. Modifique as options/train_gfpgan_v1.yml de acordo.

  4. Treinamento

python -m Torch.distribed.launch - -nproc_per_node = 4 --master_port = 22021 gfpgan/tren.py -opt options/Train_gfpgan_v1.yml - -launcher pytorch

Licença e reconhecimento

O GFPGAN é lançado no Apache License versão 2.0.

Bibtex

 @InProceedings{wang2021gfpgan,
    author = {Xintao Wang and Yu Li and Honglun Zhang and Ying Shan},
    title = {Towards Real-World Blind Face Restoration with Generative Facial Prior},
    booktitle={The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},
    year = {2021}
}

? Contato

Se você tiver alguma dúvida, envie um email para [email protected] ou [email protected] .

Expandir
Informações adicionais