Implémentation officielle de Pytorch

Les vidéos d'accompagnement se trouvent sur YouTube. Pour plus de détails, veuillez vous référer au document.
pip install -r requirements.txt
python train.py --cfg configs/mobile_stylegan_ffhq.json --gpus < n_gpus > Notre framework prend en charge le format de points de contrôle Stylegan2 de Rosinality / Stylegan2-Pytorch. Pour convertir CKPT votre propre point de contrôle de Stylegan2 en notre cadre:
python convert_rosinality_ckpt.py --ckpt < path_to_rosinality_stylegan2_ckpt > --ckpt-mnet < path_to_output_mapping_network_ckpt > --ckpt-snet < path_to_output_synthesis_network_ckpt > --cfg-path < path_to_output_config_json >Pour vérifier que votre point de contrôle est converti correctement, il suffit d'exécuter une visualisation de démonstration:
python demo.py --cfg < path_to_output_config_json > --ckpt " " --generator teacherpython generate.py --cfg configs/mobile_stylegan_ffhq.json --device cuda --ckpt < path_to_ckpt > --output-path < path_to_store_imgs > --batch-size < batch_size > --n-batches < n_batches > Pour évaluer le score FID, nous utilisons une version modifiée de la bibliothèque Pytorch-Fid:
python evaluate_fid.py < path_to_ref_dataset > < path_to_generated_imgs > Exécutez une visualisation de démonstration à l'aide de MobileSylegan:
python demo.py --cfg configs/mobile_stylegan_ffhq.json --ckpt < path_to_ckpt >Exécutez une comparaison visuelle en utilisant Stylegan2 vs MobileSylegan:
python compare.py --cfg configs/mobile_stylegan_ffhq.json --ckpt < path_to_ckpt > python train.py --cfg configs/mobile_stylegan_ffhq.json --ckpt < path_to_ckpt > --export-model onnx --export-dir < output_dir > python train.py --cfg configs/mobile_stylegan_ffhq.json --ckpt < path_to_ckpt > --export-model coreml --export-dir < output_dir > Nous fournissons une bibliothèque externe Random_face comme exemple de déploiement de notre modèle sur les périphériques Edge à l'aide du framework OpenVino.
| Nom | Fid |
|---|---|
| mobilestylegan_ffhq.ckpt | 7.75 |
(*) Notre framework prend en charge les modèles de téléchargement automatique de téléchargement, utilisez simplement --ckpt <pretrined_model_name> .
| Code | Source | Licence |
|---|---|---|
| Grains de cuda personnalisés | https://github.com/nvlabs/stylegan2 | Licence Nvidia |
| Blocs Stylegan2 | https://github.com/rosinality/stylegan2-pytorch | Mit |
Nous tenons à remercier les personnes dont les œuvres ont contribué à notre projet ::
Si vous utilisez les résultats et le code de ce travail, veuillez le citer comme:
@misc{belousov2021mobilestylegan,
title={MobileStyleGAN: A Lightweight Convolutional Neural Network for High-Fidelity Image Synthesis},
author={Sergei Belousov},
year={2021},
eprint={2104.04767},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
@article{BELOUSOV2021100115,
title = {MobileStyleGAN.pytorch: PyTorch-based toolkit to compress StyleGAN2 model},
journal = {Software Impacts},
year = {2021},
issn = {2665-9638},
doi = {https://doi.org/10.1016/j.simpa.2021.100115},
url = {https://www.sciencedirect.com/science/article/pii/S2665963821000452},
author = {Sergei Belousov},
}