Studiogan은 조건부/무조건 이미지 생성을위한 대표적인 생성 적대적 네트워크 (GANS)의 구현을 제공하는 Pytorch 라이브러리입니다. Studiogan은 머신 러닝 연구원이 새로운 아이디어를 쉽게 비교하고 분석 할 수 있도록 현대 간 Gans에게 동일한 놀이터를 제공하는 것을 목표로합니다.
또한 Studiogan은 생성 모델에 대한 전례없는 규모의 벤치 마크를 제공합니다. 벤치 마크에는 GANS (Biggan-Deep, StyleGan-XL), 자동 중심 모델 (Maskgit, RQ-Transformer) 및 확산 모델 (LSGM ++, CLD-SGM, ADM-GU)의 결과가 포함됩니다.
| 방법 | 장소 | 건축학 | GC | DC | 손실 | EMA |
|---|---|---|---|---|---|---|
| DCGAN | Arxiv'15 | DCGAN/RESNETGAN 1 | N/A | N/A | 바닐라 | 거짓 |
| Infogan | NIPS'16 | DCGAN/RESNETGAN 1 | N/A | N/A | 바닐라 | 거짓 |
| LSGAN | ICCV'17 | DCGAN/RESNETGAN 1 | N/A | N/A | 최소한 sqaure | 거짓 |
| GGAN | Arxiv'17 | DCGAN/RESNETGAN 1 | N/A | N/A | 돌쩌귀 | 거짓 |
| WGAN-WC | ICLR'17 | resnetgan | N/A | N/A | Wasserstein | 거짓 |
| WGAN-GP | NIPS'17 | resnetgan | N/A | N/A | Wasserstein | 거짓 |
| WGAN-DRA | Arxiv'17 | resnetgan | N/A | N/A | Wasserstein | 거짓 |
| ACGAN-MOD 2 | - | resnetgan | CBN | AC | 돌쩌귀 | 거짓 |
| pdgan | ICLR'18 | resnetgan | CBN | PD | 돌쩌귀 | 거짓 |
| Sngan | ICLR'18 | resnetgan | CBN | PD | 돌쩌귀 | 거짓 |
| 사간 | ICML'19 | resnetgan | CBN | PD | 돌쩌귀 | 거짓 |
| Tacgan | Neurips'19 | 큰 간 | CBN | TAC | 돌쩌귀 | 진실 |
| LGAN | ICML'19 | resnetgan | N/A | N/A | 바닐라 | 거짓 |
| 무조건적인 Biggan | ICLR'19 | 큰 간 | N/A | N/A | 돌쩌귀 | 진실 |
| 큰 간 | ICLR'19 | 큰 간 | CBN | PD | 돌쩌귀 | 진실 |
| Biggan-Deep-Comparegan | ICLR'19 | Biggan-Deep Compargan | CBN | PD | 돌쩌귀 | 진실 |
| Biggan-Deep-Studiogan | - | Biggan-Deep Studiogan | CBN | PD | 돌쩌귀 | 진실 |
| Stylegan2 | CVPR '20 | Stylegan2 | 카디 | spd | 물류 | 진실 |
| 크르 간 | ICLR'20 | 큰 간 | CBN | PD | 돌쩌귀 | 진실 |
| Icrgan | aaai'21 | 큰 간 | CBN | PD | 돌쩌귀 | 진실 |
| 로건 | Arxiv'19 | resnetgan | CBN | PD | 돌쩌귀 | 진실 |
| Contragan | Neurips'20 | 큰 간 | CBN | 2c | 돌쩌귀 | 진실 |
| MHGAN | WACV'21 | 큰 간 | CBN | MH | MH | 진실 |
| biggan + diffaugment | Neurips'20 | 큰 간 | CBN | PD | 돌쩌귀 | 진실 |
| Stylegan2 + ada | Neurips'20 | Stylegan2 | 카디 | spd | 물류 | 진실 |
| BIGGAN + LECAM | CVPR'2021 | 큰 간 | CBN | PD | 돌쩌귀 | 진실 |
| 원자로 | Neurips'21 | 큰 간 | CBN | D2D-CE | 돌쩌귀 | 진실 |
| Stylegan2 + APA | Neurips'21 | Stylegan2 | 카디 | spd | 물류 | 진실 |
| Stylegan3-T | Neurips'21 | Stylegan3 | 카인 | spd | 물류 | 진실 |
| Stylegan3-R | Neurips'21 | Stylegan3 | 카인 | spd | 물류 | 진실 |
| Adcgan | ICML'22 | 큰 간 | CBN | ADC | 돌쩌귀 | 진실 |
GC/DC는 발전기 또는 판별 자에게 레이블 정보를 주입하는 방법을 나타냅니다.
EMA : 생성기에 대한 지수 이동 평균 업데이트. CBN : 조건부 배치 정규화. CADAIN : 적응 형 인스턴스 정규화의 조건부 버전. AC : 보조 분류기. PD : 프로젝션 판별 자. TAC : 트윈 보조 분류기. SPD : Stylegan의 수정 된 PD. 2C : 조건부 대비 손실. MH : 다중 힌지 손실. ADC : 보조 판별 분류기. D2D-CE : 데이터-데이터 크로스 엔트로피.
| 방법 | 장소 | 건축학 |
|---|---|---|
| 시작 점수 (IS) | Neurips'16 | inceptionv3 |
| Frechet Inception 거리 (FID) | Neurips'17 | inceptionv3 |
| 개선 된 정밀 및 리콜 | Neurips'19 | inceptionv3 |
| 분류기 정확도 점수 (CAS) | Neurips'19 | inceptionv3 |
| 밀도 및 적용 범위 | ICML'20 | inceptionv3 |
| 클래스 내 FID | - | inceptionv3 |
| Swav Fid | ICLR'21 | Swav |
| 클린 메트릭 (IS, FID, PRDC) | CVPR'22 | inceptionv3 |
| 건축 친화적 인 메트릭 (IS, FID, PRDC) | Arxiv'22 | inceptionv3에만 국한되지 않습니다 |
| 방법 | 장소 | 대상 아키텍처 |
|---|---|---|
| 동결 | CVPRW'20 | Stylegan2를 제외하고 |
| 최고 K 교육 | Neurips'2020 | - |
| DDL | Neurips'2020 | - |
| 세파 | CVPR'2021 | 큰 간 |
우리는 Studiogan에서 구현 된 GANS의 재현성을 확인하여 IS와 FID를 원본 논문과 비교합니다. 우리는 PD-GAN, ACGAN, LOGAN, SAGAN 및 BIGGAN-DEEP를 제외한 대부분의 대표적인 GAN을 성공적으로 재현 한 플랫폼을 식별합니다. FQ는 Flickr-Faces-HQ 데이터 세트 (FFHQ)를 의미합니다. Imagenet, AfhQV2 및 FQ 데이터 세트의 해상도는 각각 128, 512 및 1024입니다.
먼저, Pytorch를 설치하십시오. 환경을 만나십시오 (최소 1.7) :
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu116그런 다음 다음 명령을 사용하여 나머지 라이브러리를 설치하십시오.
pip install tqdm ninja h5py kornia matplotlib pandas sklearn scipy seaborn wandb PyYaml click requests pyspng imageio-ffmpeg timmDocker를 사용하면 사용할 수 있습니다 (업데이트 14/12 월/2022) :
docker pull alex4727/experiment:pytorch113_cuda116이것은 "Studiogan"이라는 컨테이너를 만드는 명령입니다.
docker run -it --gpus all --shm-size 128g --name StudioGAN -v /path_to_your_folders:/root/code --workdir /root/code alex4727/experiment:pytorch113_cuda116 /bin/zshNVIDIA 드라이버 버전이 요구 사항을 충족시키지 못하면 위의 명령에 아래에 추가 할 수 있습니다.
--env NVIDIA_DISABLE_REQUIRE=true CIFAR10/CIFAR100 : Studiogan은 main.py 실행하면 데이터 세트를 자동으로 다운로드합니다.
Tiny Imagenet, ImageNet 또는 사용자 정의 데이터 세트 :
data
└── ImageNet, Tiny_ImageNet, Baby ImageNet, Papa ImageNet, or Grandpa ImageNet
├── train
│ ├── cls0
│ │ ├── train0.png
│ │ ├── train1.png
│ │ └── ...
│ ├── cls1
│ └── ...
└── valid
├── cls0
│ ├── valid0.png
│ ├── valid1.png
│ └── ...
├── cls1
└── ...
시작하기 전에 사용자는 개인 API 키를 사용하여 WANDB를 로그인해야합니다.
wandb login PERSONAL_API_KEY 릴리스 0.3.0에서 이제 -metrics 옵션을 통해 사용할 평가 메트릭을 정의 할 수 있습니다. FID 계산에 대한 옵션 기본값을 지정하지 않습니다. IE -metrics is fid -metrics none 만 계산합니다.
-t ) 및 평가는 GPU 0 사용하여 CONFIG_PATH 에 정의 된 모델의 IS, FID, PRC, Rec, DNS, CVG ( -metrics is fid prdc . CUDA_VISIBLE_DEVICES=0 python3 src/main.py -t -metrics is fid prdc -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH--pre_resizer lanczos )를 사용한 교육 및 평가를위한 전처리 이미지. 그런 다음 GPU 0 사용하여 CONFIG_PATH 에 정의 된 모델의 친절한, 친절한 Fid, 친절, 친절한 DNS, 친절한 CVG ( -metrics is fid prdc --post_resizer clean )를 기차 ( -t )를 평가합니다. CUDA_VISIBLE_DEVICES=0 python3 src/main.py -t -metrics is fid prdc --pre_resizer lanczos --post_resizer clean -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH(0, 1, 2, 3) 사용하여 DataParallel 통해 CONFIG_PATH 에 정의 된 모델의 Train ( -t )을 평가하고 평가하십시오. FID의 평가에는 ( -metrics ) 인수가 필요하지 않습니다! CUDA_VISIBLE_DEVICES=0,1,2,3 python3 src/main.py -t -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH(0, 1, 2, 3) , Synchronized batch norm 및 Mixed precision 사용하여 DistributedDataParallel 통해 CONFIG_PATH 에 정의 된 모델의 Train ( -t ) 및 Skip Evaluation ( -metrics none ). export MASTER_ADDR= " localhost "
export MASTER_PORT=2222
CUDA_VISIBLE_DEVICES=0,1,2,3 python3 src/main.py -t -metrics none -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH -DDP -sync_bn -mpc 사용 가능한 옵션을 보려면 python3 src/main.py 사용해보십시오.
메인 메모리에 모든 데이터를로드 ( -hdf5 -l )
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -t -hdf5 -l -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH DistributedDataparAllel (여기 참조) ( -DDP )
# ## NODE_0, 4_GPUs, All ports are open to NODE_1
~ /code>>> export MASTER_ADDR=PUBLIC_IP_OF_NODE_0
~ /code>>> export MASTER_PORT=AVAILABLE_PORT_OF_NODE_0
~ /code/PyTorch-StudioGAN>>> CUDA_VISIBLE_DEVICES=0,1,2,3 python3 src/main.py -t -DDP -tn 2 -cn 0 -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH # ## NODE_1, 4_GPUs, All ports are open to NODE_0
~ /code>>> export MASTER_ADDR=PUBLIC_IP_OF_NODE_0
~ /code>>> export MASTER_PORT=AVAILABLE_PORT_OF_NODE_0
~ /code/PyTorch-StudioGAN>>> CUDA_VISIBLE_DEVICES=0,1,2,3 python3 src/main.py -t -DDP -tn 2 -cn 1 -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH 혼합 정밀 훈련 ( -mpc )
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -t -mpc -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH배치 정규화 통계를 변경하십시오
# Synchronized batchNorm (-sync_bn)
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -t -sync_bn -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH
# Standing statistics (-std_stat, -std_max, -std_step)
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -std_stat -std_max STD_MAX -std_step STD_STEP -cfg CONFIG_PATH -ckpt CKPT -data DATA_PATH -save SAVE_PATH
# Batch statistics (-batch_stat)
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -batch_stat -cfg CONFIG_PATH -ckpt CKPT -data DATA_PATH -save SAVE_PATH잘린 트릭
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py --truncation_factor TRUNCATION_FACTOR -cfg CONFIG_PATH -ckpt CKPT -data DATA_PATH -save SAVE_PATH ddls ( -lgv -lgv_rate -lgv_std -lgv_decay -lgv_decay_steps -lgv_steps )
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -lgv -lgv_rate LGV_RATE -lgv_std LGV_STD -lgv_decay LGV_DECAY -lgv_decay_steps LGV_DECAY_STEPS -lgv_steps LGV_STEPS -cfg CONFIG_PATH -ckpt CKPT -data DATA_PATH -save SAVE_PATH 동결 판별 기 ( -freezeD )
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -t --freezeD FREEZED -ckpt SOURCE_CKPT -cfg TARGET_CONFIG_PATH -data DATA_PATH -save SAVE_PATH Studiogan은 Image visualization, K-nearest neighbor analysis, Linear interpolation, Frequency analysis, TSNE analysis, and Semantic factorization 지원합니다. 모든 결과는 SAVE_DIR/figures/RUN_NAME/*.png 에 저장됩니다.
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -v -cfg CONFIG_PATH -ckpt CKPT -save SAVE_DIR
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -knn -cfg CONFIG_PATH -ckpt CKPT -data DATA_PATH -save SAVE_PATHCUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -itp -cfg CONFIG_PATH -ckpt CKPT -save SAVE_DIRCUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -fa -cfg CONFIG_PATH -ckpt CKPT -data DATA_PATH -save SAVE_PATHCUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -tsne -cfg CONFIG_PATH -ckpt CKPT -data DATA_PATH -save SAVE_PATHCUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -sefa -sefa_axis SEFA_AXIS -sefa_max SEFA_MAX -cfg CONFIG_PATH -ckpt CKPT -save SAVE_PATHStudiogan은 DCGAN에서 StrysGan3-R까지 30 명의 대표 간 인의 훈련을 지원합니다.
데이터 세트와 모델에 따라 다른 스크립트를 사용했으며 다음과 같습니다.
CUDA_VISIBLE_DEVICES=0 python3 src/main.py -t -hdf5 -l -std_stat -std_max STD_MAX -std_step STD_STEP -metrics is fid prdc -ref " train " -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH -mpc --post_resizer " friendly " --eval_backbone " InceptionV3_tf "CUDA_VISIBLE_DEVICES=0 python3 src/main.py -t -hdf5 -l -metrics is fid prdc -ref " train " -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH -mpc --post_resizer " friendly " --eval_backbone " InceptionV3_tf "CUDA_VISIBLE_DEVICES=0,1,2,3 python3 src/main.py -t -hdf5 -l -sync_bn -std_stat -std_max STD_MAX -std_step STD_STEP -metrics is fid prdc -ref " train " -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH -mpc --pre_resizer " lanczos " --post_resizer " friendly " --eval_backbone " InceptionV3_tf " export MASTER_ADDR= " localhost "
export MASTER_PORT=8888
CUDA_VISIBLE_DEVICES=0,1,2,3 python3 src/main.py -t -metrics is fid prdc -ref " train " -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH -mpc --pre_resizer " lanczos " --post_resizer " friendly " --eval_backbone " InceptionV3_tf " export MASTER_ADDR= " localhost "
export MASTER_PORT=8888
CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 python3 src/main.py -t -metrics is fid prdc -ref " train " -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH -mpc --pre_resizer " lanczos " --post_resizer " friendly " --eval_backbone " InceptionV3_tf " Studiogan은 시작 점수, Frechet Inception 거리, 개선 된 정밀 및 리콜, 밀도 및 커버리지, 클래스 내 FID, 분류기 정확도 점수를 지원합니다. 사용자는 각각 -iFID, -GAN_train, and -GAN_test 옵션을 사용하여 Intra-Class FID, Classifier Accuracy Score 점수를 얻을 수 있습니다.
사용자는 enceptionv3에서 resnet50, swav, dino 또는 swin transformer --eval_backbone ResNet50_torch, SwAV_torch, DINO_torch, or Swin-T_torch 옵션을 사용하여 평가 백본을 변경할 수 있습니다.
또한 사용자는 --post_resizer clean or friendly 옵션을 사용하여 청정 또는 아키텍처 친화적 인 Resizer로 메트릭을 계산할 수 있습니다.
Inception Score (IS)는 GAN이 고 충실도와 다양한 이미지를 생성하는 양을 측정하는 메트릭입니다. 계산에는 미리 훈련 된 Inception-V3 네트워크가 필요합니다. 계산하기 위해 데이터 세트를 10 배로 분할하지는 않습니다.
FID는 GAN 모델의 성능을 평가하는 데 널리 사용되는 지표입니다. FID를 계산하려면 미리 훈련 된 Inception-V3 네트워크가 필요하며 현대적인 접근 방식은 Tensorflow 기반 FID를 사용합니다. Studiogan은 Pytorch 기반 FID를 사용하여 동일한 Pytorch 환경에서 GAN 모델을 테스트합니다. Pytorch 기반 FID 구현은 Tensorflow 구현과 거의 동일한 결과를 제공 함을 보여줍니다 (Contragan Paper의 부록 F 참조).
정밀도와 리콜의 단점을 보충하기 위해 개선 된 정밀도와 리콜이 개발되었습니다. IS와 마찬가지로 FID와 마찬가지로 개선 된 정밀도 및 리콜을 계산하려면 미리 훈련 된 Inception-V3 모델이 필요합니다. Studiogan은 밀도 및 커버리지 점수 개발자가 제공하는 Pytorch 구현을 사용합니다.
밀도 및 적용 범위 메트릭은 미리 훈련 된 Inception-V3 모델을 사용하여 생성 된 이미지의 충실도와 다양성을 추정 할 수 있습니다. 메트릭은 이상치에게 강력한 것으로 알려져 있으며 동일한 실제 및 가짜 분포를 감지 할 수 있습니다. Studiogan은 저자의 공식 Pytorch 구현을 사용하고 Studiogan은 하이퍼 파라미터 선택에 대한 저자의 제안을 따릅니다.
우리는 최선의 IS, FID, 개선 된 정밀 및 리콜, GAN의 밀도 및 범위를보고합니다.
Studiogan에보고 된 모든 체크 포인트를 다운로드하려면 여기를 클릭 하십시오 (Hugging Face Hub).
해당 구성 경로 -cfg CORRESPONDING_CONFIG_PATH 에 -ckpt CKPT_PATH 옵션을 추가하여 체크 포인트를 평가할 수 있습니다.
Cifar10, Baby Imagenet, Papa Imbenet, Grandpa Imagenet, Imagenet, Afhqv2 및 FQ의 해상도는 각각 32, 64, 64, 64, 128, 512 및 1024입니다.
우리는 Frechet Inception 거리 (FID), 정밀, 리콜, 밀도 및 범위 계산에 대한 교육 이미지와 동일한 수의 생성 이미지를 사용합니다. Baby/Papa/Grandpa Imagenet 및 Imagenet을 사용한 실험을 위해, 우리는 실제 이미지로서의 완전한 훈련 세트에 대해 50k 가짜 이미지를 예외로 사용합니다.
참조 데이터 세트의 모든 기능과 모멘트는 기능 과 순간을 통해 다운로드 할 수 있습니다.
Imagenet-128 및 Imagenet 256의 해상도는 각각 128과 256입니다.
벤치 마크에 사용되는 모든 이미지는 하나의 드라이브를 통해 다운로드 할 수 있습니다 (곧 업로드됩니다).
(0,...,N) 사용하여 DSET1 및 DSET2에 저장된 이미지 폴더 (이미 전처리 -metrics is fid prdc )의 IS, FID, PRC, Rec, DNS, CVG IS FID PRDC). CUDA_VISIBLE_DEVICES=0,...,N python3 src/evaluate.py -metrics is fid prdc --dset1 DSET1 --dset2 DSET2-metrics is fid prdc 미리 컴퓨터 기능 ( --dset1_feats DSET1_FEATS ), dset1의 모멘트 ( --dset1_moments DSET1_MOMENTS ) 및 gpus (0,...,N) 사용하여 DSET2에 저장된 이미지 폴더의 FID PRDC). CUDA_VISIBLE_DEVICES=0,...,N python3 src/evaluate.py -metrics is fid prdc --dset1_feats DSET1_FEATS --dset1_moments DSET1_MOMENTS --dset2 DSET2(0,...,N) 사용하여 DistributedDataParallel 통해 DSET1 및 DSET2에 저장된 이미지 폴더의 -metrics is fid prdc --post_resizer friendly )를 평가합니다. export MASTER_ADDR= " localhost "
export MASTER_PORT=2222
CUDA_VISIBLE_DEVICES=0,...,N python3 src/evaluate.py -metrics is fid prdc --post_resizer friendly --dset1 DSET1 --dset2 DSET2 -DDP[MIT 라이센스] 동기화 된 Batchnorm : https://github.com/vacancy/synchronized-batchnorm-pytorch
[MIT 라이센스] 자체 변환 모듈 : https://github.com/voletiv/self-attention-gan-pytorch
[MIT 라이센스] Diffaugment : https://github.com/mit-han-lab/data- 효율적인 gans
[MIT_LICENSE] PYTORCH 개선 정밀도 및 리콜 : https://github.com/clovaai/generative-evaluationprdc
[MIT_LICENSE] Pytorch 밀도 및 적용 범위 : https://github.com/clovaai/generative-evaluationprdc
[MIT 라이센스] Pytorch Clean-Fid : https://github.com/gaparmar/clean-fid
[nvidia 소스 코드 라이센스] Stylegan2 : https://github.com/nvlabs/stylegan2
[NVIDIA 소스 코드 라이센스] 적응 식별기 확대 : https://github.com/nvlabs/stylegan2
[Apache 라이센스] Pytorch Fid : https://github.com/mseitzer/pytorch-fid
Pytorch-Studiogan은 MIT 라이센스 (MIT)에 따라 오픈 소스 라이브러리입니다. 그러나 라이브러리의 일부는 Strystangan2, Stylegan2-ADA 및 StyleGan3은 NVIDIA 소스 코드 라이센스에 따라 라이센스를 받고 APACHE 라이센스에 따라 라이센스를 부여합니다.
Studiogan은 다음 연구 프로젝트를 위해 설립되었습니다. Studiogan을 사용하는 경우 우리의 작업을 인용하십시오.
@article { kang2023StudioGANpami ,
title = { {StudioGAN: A Taxonomy and Benchmark of GANs for Image Synthesis} } ,
author = { MinGuk Kang and Joonghyuk Shin and Jaesik Park } ,
journal = { IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI) } ,
year = { 2023 }
} @inproceedings { kang2021ReACGAN ,
title = { {Rebooting ACGAN: Auxiliary Classifier GANs with Stable Training} } ,
author = { Minguk Kang, Woohyeon Shim, Minsu Cho, and Jaesik Park } ,
journal = { Conference on Neural Information Processing Systems (NeurIPS) } ,
year = { 2021 }
} @inproceedings { kang2020ContraGAN ,
title = { {ContraGAN: Contrastive Learning for Conditional Image Generation} } ,
author = { Minguk Kang and Jaesik Park } ,
journal = { Conference on Neural Information Processing Systems (NeurIPS) } ,
year = { 2020 }
}[1] Tiny Imagenet에 대한 실험은 CNN 대신 RESNET 아키텍처를 사용하여 수행됩니다.
[2] 약간의 수정으로 ACGAN (ICML'17)을 재 구현하여 CIFAR10을 사용한 실험에 대한 강력한 성능 향상을 가져옵니다.