Obrigado pelo seu interesse em nosso trabalho. Você também pode verificar nossas novas atualizações sobre os pequenos modelos para imagens e vídeos de anime no Real-Esrgan ?
O GFPGAN visa desenvolver um algoritmo prático para a restauração de rosto do mundo real .
Ele aproveita os anteriores ricos e diversos encapsulados em um gan face pré -treinamento ( por exemplo , stylegan2) para restauração de rosto cego.
❓ Perguntas frequentes podem ser encontradas no FAQ.MD.
Atualizações
Se o GFPGAN for útil em suas fotos/projetos, ajude este repositório ou recomende a seus amigos. Obrigado? Outros projetos recomendados:
[Paper] [Página do projeto] [Demo]
Xintao Wang, Yu Li, Hongglun Zhang, Ying Shan
Centro de Pesquisa Aplicada (ARC), Tencent PCG
Agora fornecemos uma versão limpa do GFPGAN, que não requer extensões CUDA personalizadas.
Se você deseja usar o modelo original em nosso artigo, consulte o PapamModel.md para instalação.
Repo Clone
git clone https://github.com/TencentARC/GFPGAN.git
cd GFPGANInstale pacotes dependentes
# Install basicsr - https://github.com/xinntao/BasicSR
# We use BasicSR for both training and inference
pip install basicsr
# Install facexlib - https://github.com/xinntao/facexlib
# We use face detection and face restoration helper in the facexlib package
pip install facexlib
pip install -r requirements.txt
python setup.py develop
# If you want to enhance the background (non-face) regions with Real-ESRGAN,
# you also need to install the realesrgan package
pip install realesrganTomamos a versão V1.3 para um exemplo. Mais modelos podem ser encontrados aqui.
Faça o download dos modelos pré-treinados: GFPGANV1.3.PTH
wget https://github.com/TencentARC/GFPGAN/releases/download/v1.3.0/GFPGANv1.3.pth -P experiments/pretrained_modelsInferência!
python inference_gfpgan.py -i inputs/whole_imgs -o results -v 1.3 -s 2 Usage: python inference_gfpgan.py -i inputs/whole_imgs -o results -v 1.3 -s 2 [options]...
-h show this help
-i input Input image or folder. Default: inputs/whole_imgs
-o output Output folder. Default: results
-v version GFPGAN model version. Option: 1 | 1.2 | 1.3. Default: 1.3
-s upscale The final upsampling scale of the image. Default: 2
-bg_upsampler background upsampler. Default: realesrgan
-bg_tile Tile size for background sampler, 0 for no tile during testing. Default: 400
-suffix Suffix of the restored faces
-only_center_face Only restore the center face
-aligned Input are aligned faces
-ext Image extension. Options: auto | jpg | png, auto means using the same extension as inputs. Default: autoSe você deseja usar o modelo original em nosso artigo, consulte o PapamModel.md para instalação e inferência.
| Versão | Nome do modelo | Descrição |
|---|---|---|
| V1.3 | GFPGANV1.3.PTH | Com base em v1.2; Resultados de restauração mais naturais ; melhores resultados em entradas de baixa qualidade / alta qualidade. |
| V1.2 | GfpGancleanv1-NOCE-C2.PTH | Sem coloração; Não são necessárias extensões de CUDA. Treinado com mais dados com pré-processamento. |
| V1 | Gfpganv1.tth | O modelo de papel, com colorização. |
As comparações estão em comparações.md.
Observe que v1.3 nem sempre é melhor que v1.2. Pode ser necessário selecionar diferentes modelos com base em seu objetivo e insumos.
| Versão | Pontos fortes | Fraquezas |
|---|---|---|
| V1.3 | ✓ Saídas naturais ✓ Better resulta em entradas de baixa qualidade ✓ Trabalhe em entradas relativamente de alta qualidade ✓ Pode ter restaurações repetidas (duas vezes) | ✗ Não muito afiado ✗ Tenha uma ligeira mudança na identidade |
| V1.2 | ✓ Saída mais nítida ✓ Com maquiagem de beleza | ✗ Algumas saídas não são naturais |
Você pode encontrar mais modelos (como os discriminadores) aqui: [Google Drive] ou [Tencent Cloud 腾讯微云]
Fornecemos os códigos de treinamento para o GFPGAN (usado em nosso artigo).
Você pode melhorá -lo de acordo com suas próprias necessidades.
Pontas
Procedimentos
(Você pode experimentar uma versão simples ( options/train_gfpgan_v1_simple.yml ) que não requer marcos de componentes de face.)
Preparação do conjunto de dados: ffhq
Faça o download de modelos pré-treinados e outros dados. Coloque -os na pasta experiments/pretrained_models .
Modifique as options/train_gfpgan_v1.yml de acordo.
Treinamento
python -m Torch.distribed.launch - -nproc_per_node = 4 --master_port = 22021 gfpgan/tren.py -opt options/Train_gfpgan_v1.yml - -launcher pytorch
O GFPGAN é lançado no Apache License versão 2.0.
@InProceedings{wang2021gfpgan,
author = {Xintao Wang and Yu Li and Honglun Zhang and Ying Shan},
title = {Towards Real-World Blind Face Restoration with Generative Facial Prior},
booktitle={The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},
year = {2021}
}
Se você tiver alguma dúvida, envie um email para [email protected] ou [email protected] .