Der Code für unser CVPR -Papierpise: Personbildsynthese und Bearbeitung mit entkoppelter GaN, Projektseite, Supp.
conda create -n pise python=3.6
conda install pytorch=1.2 cudatoolkit=10.0 torchvision
pip install scikit-image pillow pandas tqdm dominate natsort
Die Datenvorbereitung für Bilder und Tastaturen können Pose Transfer und GFLA folgen.
Laden Sie Deep Fashion Dataset herunter. Sie müssen ein Passwort von Dataset -Betreuern einfragen. Unzip 'img/img.zip' und geben Sie den Ordner mit dem Namen 'img' in das Verzeichnis './fashion_data'.
Download Zug-/Testschlüsselpunkte Anmerkungen und die Datensatzliste von Google Drive, einschließlich fashion-pair-train.csv , fashion-pair-test.csv , fashion-Annotation-train.csv , fashion-Annotation-train.csv, Zug. lst , test.lst . Setzen Sie diese Dateien unter das Verzeichnis ./fashion_data .
Führen Sie den folgenden Code aus, um den Zug-/Testdatensatz zu teilen.
python data/generate_fashion_datasets.py
Laden Sie Parsingdaten herunter und legen Sie diese Dateien unter das Verzeichnis ./fashion_data . Das Analysieren von Daten zum Testen finden Sie von Baidu (Effectch Code: ABCD) oder Google Drive. Parsingdaten für das Training finden Sie von Baidu (Effectch Code: ABCD) oder Google Drive. Sie können die Daten mit PGN folgen und die Beschriftungen nach Bedarf neu organisieren.
python train.py --name=fashion --model=painet --gpu_ids=0
Beachten Sie, dass wenn Sie ein Pose-Transfermodell sowie eine Texturübertragung und die Bearbeitung von Regionen trainieren möchten, die Zeile 177 und 178 und die Kontrollzeile 162-176.
Für das Training mit Multi-GPUs können Sie sich auf das Problem in GFLA verweisen
Sie können unsere Testergebnisse von Baidu (Fetchcode: ABCD) oder Google Drive direkt herunterladen.
Der vorgeborene Kontrollpunkt der in unserem Artikel gemeldeten Human-Pose-Transfer finden Sie von Baidu (Fetchcode: ABCD) oder Google Drive und stellen Sie ihn in den Ordner (-> Ergebnisse-> Mode).
Vorausgebildeter Kontrollpunkt von Texturtransfa, Region Bearbeitung, in unserem Artikel verwendete Stilinterpolation finden Sie in Baidu (Fetchcode: ABCD) oder Google Drive. Beachten Sie, dass das Modell geändert werden muss.
Test selbst
python test.py --name=fashion --model=painet --gpu_ids=0
Wenn Sie diesen Code verwenden, zitieren Sie bitte unser Papier.
@InProceedings{Zhang_2021_CVPR,
author = {Zhang, Jinsong and Li, Kun and Lai, Yu-Kun and Yang, Jingyu},
title = {{PISE}: Person Image Synthesis and Editing With Decoupled GAN},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
month = {June},
year = {2021},
pages = {7982-7990}
}
Unser Code basiert auf GFLA.