CVPR 용지 PISE의 코드 : 사람 이미지 합성 및 디퍼 커플 란, 프로젝트 페이지, Supp.
conda create -n pise python=3.6
conda install pytorch=1.2 cudatoolkit=10.0 torchvision
pip install scikit-image pillow pandas tqdm dominate natsort
이미지 및 키패 인에 대한 데이터 준비는 포즈 전송 및 GFLA를 따를 수 있습니다.
깊은 패션 데이터 세트를 다운로드하십시오. 데이터 세트 관리자에게 비밀번호를 요청해야합니다. 'img/img.zip'을 압축하고 'img'이라는 폴더를 './fashion_data'디렉토리에 넣습니다.
Fashion-Pairs-Train.csv , Fashion-Pairs-Test.csv, Fashion-Nantation-Train.csv , Fashion-Nantation-Train.csv , Train을 포함하여 Google Drive에서 열차/테스트 키 포인트 주석 및 데이터 세트 목록을 다운로드하십시오. lst , test.lst . 이 파일을 ./fashion_data 디렉토리 아래에 넣으십시오.
열차/테스트 데이터 세트를 분할하려면 다음 코드를 실행하십시오.
python data/generate_fashion_datasets.py
구문 분석 데이터를 다운로드 하고이 파일을 ./fashion_data 디렉토리 아래에 넣으십시오. 테스트를위한 구문 분석 데이터는 Baidu (Fectch Code : ABCD) 또는 Google Drive에서 찾을 수 있습니다. 교육용 데이터 구문 분석은 Baidu (Fectch Code : ABCD) 또는 Google Drive에서 찾을 수 있습니다. PGN으로 데이터를 팔로우하고 필요에 따라 레이블을 재구성 할 수 있습니다.
python train.py --name=fashion --model=painet --gpu_ids=0
텍스처 전송 및 지역 편집뿐만 아니라 포즈 전송 모델을 훈련 시키려면 177과 178 행에 주석을주고 162-176 행에 주석하십시오.
Multi-GPUS를 사용한 교육을 위해 GFLA에서 문제를 참조 할 수 있습니다.
Baidu (Fetch Code : ABCD) 또는 Google Drive에서 테스트 결과를 직접 다운로드 할 수 있습니다.
본 논문에보고 된 휴먼 포즈 전송의 미리 훈련 된 체크 포인트는 Baidu (Fetch Code : ABCD) 또는 Google Drive에서 찾을 수 있으며 폴더 (-> results-> fashion)에 넣을 수 있습니다.
Texture Transfe, 지역 편집, 스타일 보간의 미리 훈련 된 체크 포인트는 Baidu (Fetch Code : ABCD) 또는 Google Drive에서 찾을 수 있습니다. 모델을 변경해야합니다.
혼자서 테스트하십시오
python test.py --name=fashion --model=painet --gpu_ids=0
이 코드를 사용하는 경우 논문을 인용하십시오.
@InProceedings{Zhang_2021_CVPR,
author = {Zhang, Jinsong and Li, Kun and Lai, Yu-Kun and Yang, Jingyu},
title = {{PISE}: Person Image Synthesis and Editing With Decoupled GAN},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
month = {June},
year = {2021},
pages = {7982-7990}
}
우리의 코드는 GFLA를 기반으로합니다.