CVPRペーパーパイズのコード:分離したGan、Project Page、Supp。
conda create -n pise python=3.6
conda install pytorch=1.2 cudatoolkit=10.0 torchvision
pip install scikit-image pillow pandas tqdm dominate natsort
画像とキーポイントのデータ準備は、ポーズ転送とGFLAに従うことができます。
ディープファッションデータセットをダウンロードします。データセットメンテナーからパスワードを尋ねる必要があります。 'img/img.zip'をunzipし、「img」という名前のフォルダーを './fashion_data'ディレクトリに配置します。
Train/Test Key PointsアノテーションとGoogleドライブからのデータセットリストをダウンロードします。これには、 Fashion-Pairs-Train.csv 、 Fashion-Pairs-test.csv 、 Fashion-Annotation-Train.csv 、 Fashion-Annotation-Train.csv、 Trainを含む。 LST 、 test.lst 。これらのファイルを./fashion_dataディレクトリの下に置きます。
次のコードを実行して、トレイン/テストデータセットを分割します。
python data/generate_fashion_datasets.py
解析データをダウンロードし、これらのファイルを./fashion_dataディレクトリの下に配置します。テストのための解析データは、Baidu(Fectchコード:ABCD)またはGoogleドライブから見つけることができます。トレーニング用のデータの解析は、Baidu(Fectchコード:ABCD)またはGoogleドライブから見つけることができます。データをPGNでフォローし、必要に応じてラベルを再編成できます。
python train.py --name=fashion --model=painet --gpu_ids=0
ポーズ転送モデルとテクスチャ転送と地域の編集をトレーニングする場合は、177ラインと178行、および162-176行のuncommentsにコメントするだけであることに注意してください。
Multi-GPUを使用したトレーニングについては、GFLAで問題を参照できます
Baidu(Fetch Code:ABCD)またはGoogleドライブからテスト結果を直接ダウンロードできます。
私たちの論文で報告されている人間のポーズ転送の事前に訓練されたチェックポイントは、Baidu(Fetch Code:ABCD)またはGoogleドライブから見つけることができ、それをフォルダー( - > results-> Fashion)に入れます。
テクスチャトランフ、地域編集、スタイルの補間の事前に訓練されたチェックポイントは、Baidu(Fetch Code:ABCD)またはGoogleドライブから見つけることができます。モデルを変更する必要があることに注意してください。
自分でテストします
python test.py --name=fashion --model=painet --gpu_ids=0
このコードを使用する場合は、私たちの論文を引用してください。
@InProceedings{Zhang_2021_CVPR,
author = {Zhang, Jinsong and Li, Kun and Lai, Yu-Kun and Yang, Jingyu},
title = {{PISE}: Person Image Synthesis and Editing With Decoupled GAN},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
month = {June},
year = {2021},
pages = {7982-7990}
}
私たちのコードはGFLAに基づいています。