Studiogan ist eine Pytorch -Bibliothek, die Implementierungen von repräsentativen generativen kontroversen Netzwerken (GANs) für die bedingte/bedingungslose Bildgenerierung bietet. Studiogan möchte einen identischen Spielplatz für moderne Gans anbieten, damit Forscher für maschinelles Lernen eine neue Idee leicht vergleichen und analysieren können.
Darüber hinaus bietet Studiogan einen beispiellosen Maßstab für generative Modelle. Der Benchmark enthält Ergebnisse von GANS (Biggan-Deep, Stylegan-XL), automatisch-regressiven Modellen (Maskgit, RQ-Transformator) und Diffusionsmodellen (LSGM ++, CLD-SGM, ADM-GU).
| Verfahren | Veranstaltungsort | Architektur | GC | DC | Verlust | EMA |
|---|---|---|---|---|---|---|
| DCGAN | Arxiv'15 | Dcgan/Resnetgan 1 | N / A | N / A | Vanille | FALSCH |
| Infogan | Nips'16 | Dcgan/Resnetgan 1 | N / A | N / A | Vanille | FALSCH |
| Lsgan | ICCV'17 | Dcgan/Resnetgan 1 | N / A | N / A | Am wenigsten Quadratmeter | FALSCH |
| Ggan | Arxiv'17 | Dcgan/Resnetgan 1 | N / A | N / A | Scharnier | FALSCH |
| WGAN-WC | ICLR'17 | Resnetgan | N / A | N / A | Wasserstein | FALSCH |
| Wgan-GP | Nips'17 | Resnetgan | N / A | N / A | Wasserstein | FALSCH |
| WGAN-DRA | Arxiv'17 | Resnetgan | N / A | N / A | Wasserstein | FALSCH |
| Acgan-mod 2 | - - | Resnetgan | CBN | AC | Scharnier | FALSCH |
| Pdgan | ICLR'18 | Resnetgan | CBN | PD | Scharnier | FALSCH |
| Sngan | ICLR'18 | Resnetgan | CBN | PD | Scharnier | FALSCH |
| Sagan | ICML'19 | Resnetgan | CBN | PD | Scharnier | FALSCH |
| Tacgan | Neurips'19 | Biggan | CBN | TAC | Scharnier | WAHR |
| Lgan | ICML'19 | Resnetgan | N / A | N / A | Vanille | FALSCH |
| Bedingungslose Biggan | ICLR'19 | Biggan | N / A | N / A | Scharnier | WAHR |
| Biggan | ICLR'19 | Biggan | CBN | PD | Scharnier | WAHR |
| Biggan-Deep-Komparan | ICLR'19 | Biggan-Deep Comparegan | CBN | PD | Scharnier | WAHR |
| Biggan-Deep-Studiogan | - - | Biggan-Deep Studiogan | CBN | PD | Scharnier | WAHR |
| Stylegan2 | CVPR '20 | Stylegan2 | Kain | Spd | Logistisch | WAHR |
| CRGAN | ICLR'20 | Biggan | CBN | PD | Scharnier | WAHR |
| Icrgan | Aaai'21 | Biggan | CBN | PD | Scharnier | WAHR |
| Logan | Arxiv'19 | Resnetgan | CBN | PD | Scharnier | WAHR |
| Contragan | Neurips'20 | Biggan | CBN | 2c | Scharnier | WAHR |
| Mhgan | WACV'21 | Biggan | CBN | Mh | Mh | WAHR |
| Biggan + Diffaugment | Neurips'20 | Biggan | CBN | PD | Scharnier | WAHR |
| Stylegan2 + ada | Neurips'20 | Stylegan2 | Kain | Spd | Logistisch | WAHR |
| Biggan + Lecam | CVPR'2021 | Biggan | CBN | PD | Scharnier | WAHR |
| Reacgan | Neurips'21 | Biggan | CBN | D2D-CE | Scharnier | WAHR |
| Stylegan2 + apa | Neurips'21 | Stylegan2 | Kain | Spd | Logistisch | WAHR |
| Stylegan3-T | Neurips'21 | Stylegan3 | Caain | Spd | Logistisch | WAHR |
| Stylegan3-R | Neurips'21 | Stylegan3 | Caain | Spd | Logistisch | WAHR |
| Adcgan | ICML'22 | Biggan | CBN | ADC | Scharnier | WAHR |
GC/DC gibt die Art und Weise an, wie wir den Generator oder Diskriminator Beschriftungsinformationen injizieren.
EMA: Exponentielles gleitendes Durchschnittsaktualisierung des Generators. CBN: Bedingte Stapelnormalisierung. Cadain: Bedingte Version der adaptiven Instanznormalisierung. AC: Hilfsklassifizierer. PD: Projektionsdiskriminator. TAC: Twin Auxiliary -Klassifizierer. SPD: Modifizierte PD für Stylegan. 2c: bedingter kontrastiver Verlust. MH: Multi-Hinge-Verlust. ADC: Hilfsdiskriminierende Klassifikator. D2D-CE: Daten zu Datenkreuzentropie.
| Verfahren | Veranstaltungsort | Architektur |
|---|---|---|
| Inception Score (ist) | Neurips'16 | Inceptionv3 |
| Frechet Inception Distanz (FID) | Neurips'17 | Inceptionv3 |
| Verbesserte Präzision und Rückruf | Neurips'19 | Inceptionv3 |
| Score der Klassifikatorgenauigkeit (CAS) | Neurips'19 | Inceptionv3 |
| Dichte und Berichterstattung | ICML'20 | Inceptionv3 |
| Intra-Klasse FID | - - | Inceptionv3 |
| Swav Fid | ICLR'21 | Swav |
| Saubere Metriken (IS, FID, PRDC) | CVPR'22 | Inceptionv3 |
| Architektur-freundliche Metriken (IS, FID, PRDC) | Arxiv'22 | Nicht auf Inceptionv3 beschränkt |
| Verfahren | Veranstaltungsort | Zielarchitektur |
|---|---|---|
| Gefriert | Cvprw'20 | Außer stylegan2 |
| Top-K-Training | Neurips'2020 | - - |
| Ddls | Neurips'2020 | - - |
| Sefa | CVPR'2021 | Biggan |
Wir überprüfen die Reproduzierbarkeit von Gans, die in Studiogan implementiert sind, indem wir IS und FID mit den Originalpapieren vergleichen. Wir identifizieren unsere Plattform erfolgreich den größten Teil der repräsentativen Gans mit Ausnahme von PD-Gan, Acgan, Logan, Sagan und Biggan-Deep. FQ bedeutet Flickr-Faces-HQ-Datensatz (FFHQ). Die Auflösungen der Datensätze von ImageNet, AFHQV2 und FQ sind 128, 512 bzw. 1024.
Installieren Sie zunächst Pytorch, um Ihre Umgebung zu treffen (mindestens 1,7):
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu116Verwenden Sie dann den folgenden Befehl, um den Rest der Bibliotheken zu installieren:
pip install tqdm ninja h5py kornia matplotlib pandas sklearn scipy seaborn wandb PyYaml click requests pyspng imageio-ffmpeg timmMit Docker können Sie verwenden (aktualisiert 14/dez/2022):
docker pull alex4727/experiment:pytorch113_cuda116Dies ist unser Befehl, einen Container namens "Studiogan" zu erstellen.
docker run -it --gpus all --shm-size 128g --name StudioGAN -v /path_to_your_folders:/root/code --workdir /root/code alex4727/experiment:pytorch113_cuda116 /bin/zshWenn Ihre NVIDIA -Treiberversion die Anforderungen nicht erfüllt, können Sie versuchen, unten zu dem obigen Befehl hinzuzufügen.
--env NVIDIA_DISABLE_REQUIRE=true CIFAR10/CIFAR100: Studiogan lädt den Datensatz automatisch herunter, sobald Sie main.py ausgeführt haben.
Tiny ImageNet, ImageNet oder ein benutzerdefinierter Datensatz:
data
└── ImageNet, Tiny_ImageNet, Baby ImageNet, Papa ImageNet, or Grandpa ImageNet
├── train
│ ├── cls0
│ │ ├── train0.png
│ │ ├── train1.png
│ │ └── ...
│ ├── cls1
│ └── ...
└── valid
├── cls0
│ ├── valid0.png
│ ├── valid1.png
│ └── ...
├── cls1
└── ...
Vor dem Start sollten sich Benutzer mit ihrem persönlichen API -Schlüssel Wandb anmelden.
wandb login PERSONAL_API_KEY Ab Release 0.3.0 können Sie nun definieren, welche Evaluierungsmetriken über die Option -metrics verwendet werden sollen. Nicht angeben Option standardmäßig nur für die Berechnung von FID. dh -metrics is fid berechnet nur ist und fid und -metrics none überschneidet die Bewertung.
-t ) und evaluieren ist FID, PRC, REC, DNS, CVG ( -metrics is fid prdc ) des in CONFIG_PATH definierten Modells mit GPU 0 . CUDA_VISIBLE_DEVICES=0 python3 src/main.py -t -metrics is fid prdc -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH--pre_resizer lanczos ). Dann trainieren Sie ( -t ) und bewerten Sie Friendly-IS, Friendly-Fid, Friendly-PRC, Friendly-Rec, Friendly-DNs, Friendly-CVG ( -metrics is fid prdc --post_resizer clean ) des in CONFIG_PATH definierten Modells mit GPU 0 . CUDA_VISIBLE_DEVICES=0 python3 src/main.py -t -metrics is fid prdc --pre_resizer lanczos --post_resizer clean -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH-t ) und bewerten Sie die FID des in CONFIG_PATH definierten Modells über DataParallel mit GPUs (0, 1, 2, 3) . Die Bewertung von FID erfordert kein Argument ( -metrics )! CUDA_VISIBLE_DEVICES=0,1,2,3 python3 src/main.py -t -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH-t ) und überspringen Bewertung ( -metrics none ) des in CONFIG_PATH definierten Modells über DistributedDataParallel mit GPUs (0, 1, 2, 3) , Synchronized batch norm und Mixed precision . export MASTER_ADDR= " localhost "
export MASTER_PORT=2222
CUDA_VISIBLE_DEVICES=0,1,2,3 python3 src/main.py -t -metrics none -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH -DDP -sync_bn -mpc Probieren Sie python3 src/main.py aus, um verfügbare Optionen anzuzeigen.
Laden Sie alle Daten im Hauptspeicher ( -hdf5 -l )
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -t -hdf5 -l -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH DistributedDataparallel (Bitte beziehen Sie sich hier) ( -DDP )
# ## NODE_0, 4_GPUs, All ports are open to NODE_1
~ /code>>> export MASTER_ADDR=PUBLIC_IP_OF_NODE_0
~ /code>>> export MASTER_PORT=AVAILABLE_PORT_OF_NODE_0
~ /code/PyTorch-StudioGAN>>> CUDA_VISIBLE_DEVICES=0,1,2,3 python3 src/main.py -t -DDP -tn 2 -cn 0 -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH # ## NODE_1, 4_GPUs, All ports are open to NODE_0
~ /code>>> export MASTER_ADDR=PUBLIC_IP_OF_NODE_0
~ /code>>> export MASTER_PORT=AVAILABLE_PORT_OF_NODE_0
~ /code/PyTorch-StudioGAN>>> CUDA_VISIBLE_DEVICES=0,1,2,3 python3 src/main.py -t -DDP -tn 2 -cn 1 -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH Gemischtes Präzisionstraining ( -mpc )
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -t -mpc -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATHÄndern Sie die Stapel -Normalisierungsstatistik
# Synchronized batchNorm (-sync_bn)
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -t -sync_bn -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH
# Standing statistics (-std_stat, -std_max, -std_step)
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -std_stat -std_max STD_MAX -std_step STD_STEP -cfg CONFIG_PATH -ckpt CKPT -data DATA_PATH -save SAVE_PATH
# Batch statistics (-batch_stat)
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -batch_stat -cfg CONFIG_PATH -ckpt CKPT -data DATA_PATH -save SAVE_PATHKürzungsstrick
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py --truncation_factor TRUNCATION_FACTOR -cfg CONFIG_PATH -ckpt CKPT -data DATA_PATH -save SAVE_PATH DDLS ( -lgv -lgv_rate -lgv_std -lgv_decay -lgv_decay_steps -lgv_steps )
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -lgv -lgv_rate LGV_RATE -lgv_std LGV_STD -lgv_decay LGV_DECAY -lgv_decay_steps LGV_DECAY_STEPS -lgv_steps LGV_STEPS -cfg CONFIG_PATH -ckpt CKPT -data DATA_PATH -save SAVE_PATH Gefrierdiskriminator ( -freezeD )
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -t --freezeD FREEZED -ckpt SOURCE_CKPT -cfg TARGET_CONFIG_PATH -data DATA_PATH -save SAVE_PATH Studiogan unterstützt Image visualization, K-nearest neighbor analysis, Linear interpolation, Frequency analysis, TSNE analysis, and Semantic factorization . Alle Ergebnisse werden in SAVE_DIR/figures/RUN_NAME/*.png gespeichert.
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -v -cfg CONFIG_PATH -ckpt CKPT -save SAVE_DIR
CUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -knn -cfg CONFIG_PATH -ckpt CKPT -data DATA_PATH -save SAVE_PATHCUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -itp -cfg CONFIG_PATH -ckpt CKPT -save SAVE_DIRCUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -fa -cfg CONFIG_PATH -ckpt CKPT -data DATA_PATH -save SAVE_PATHCUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -tsne -cfg CONFIG_PATH -ckpt CKPT -data DATA_PATH -save SAVE_PATHCUDA_VISIBLE_DEVICES=0,...,N python3 src/main.py -sefa -sefa_axis SEFA_AXIS -sefa_max SEFA_MAX -cfg CONFIG_PATH -ckpt CKPT -save SAVE_PATHStudiogan unterstützt die Ausbildung von 30 Vertreter von DCGAN bis Stylegan3-R.
Abhängig vom Datensatz und Modell haben wir verschiedene Skripte verwendet, und dies folgt wie folgt:
CUDA_VISIBLE_DEVICES=0 python3 src/main.py -t -hdf5 -l -std_stat -std_max STD_MAX -std_step STD_STEP -metrics is fid prdc -ref " train " -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH -mpc --post_resizer " friendly " --eval_backbone " InceptionV3_tf "CUDA_VISIBLE_DEVICES=0 python3 src/main.py -t -hdf5 -l -metrics is fid prdc -ref " train " -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH -mpc --post_resizer " friendly " --eval_backbone " InceptionV3_tf "CUDA_VISIBLE_DEVICES=0,1,2,3 python3 src/main.py -t -hdf5 -l -sync_bn -std_stat -std_max STD_MAX -std_step STD_STEP -metrics is fid prdc -ref " train " -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH -mpc --pre_resizer " lanczos " --post_resizer " friendly " --eval_backbone " InceptionV3_tf " export MASTER_ADDR= " localhost "
export MASTER_PORT=8888
CUDA_VISIBLE_DEVICES=0,1,2,3 python3 src/main.py -t -metrics is fid prdc -ref " train " -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH -mpc --pre_resizer " lanczos " --post_resizer " friendly " --eval_backbone " InceptionV3_tf " export MASTER_ADDR= " localhost "
export MASTER_PORT=8888
CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 python3 src/main.py -t -metrics is fid prdc -ref " train " -cfg CONFIG_PATH -data DATA_PATH -save SAVE_PATH -mpc --pre_resizer " lanczos " --post_resizer " friendly " --eval_backbone " InceptionV3_tf " Studiogan unterstützt den Inception-Score, die Entfernung von Frechet, verbesserte Präzision und Rückruf, Dichte und Berichterstattung, Intra-Klasse FID, Klassifikatorgenauigkeitsbewertung. Benutzer können Intra-Class FID, Classifier Accuracy Score -Scores mit den Optionen für -iFID, -GAN_train, and -GAN_test erhalten.
Benutzer können das Evaluierungs-Rückgrat von Inceptionv3 in ResNet50, SWAV, Dino oder --eval_backbone ResNet50_torch, SwAV_torch, DINO_torch, or Swin-T_torch Transformator verwenden.
Darüber hinaus können Benutzer Metriken mit sauberer oder architekturfreundlicher Resizer mit der Option --post_resizer clean or friendly berechnen.
Inception Score (IS) ist eine Metrik, um zu messen, wie viel Gan hochwertige und verschiedene Bilder erzeugt. Die Berechnung ist das vorgebreitete Inception-V3-Netzwerk erforderlich. Beachten Sie, dass wir einen Datensatz nicht in zehnfache Berechnung aufteilen, das zehnmal ist.
FID ist eine weit verbreitete Metrik, um die Leistung eines GAN -Modells zu bewerten. Die Berechnung von FID erfordert das vorgeschriebene Inception-V3-Netzwerk, und moderne Ansätze verwenden TensorFlow-basierte FID. Studiogan nutzt die Pytorch-basierte FID, um GaN-Modelle in derselben Pytorch-Umgebung zu testen. Wir zeigen, dass die Pytorch -basierte FID -Implementierung mit der TensorFlow -Implementierung nahezu die gleichen Ergebnisse liefert (siehe Anhang F des kontraganischen Papiers).
Verbesserte Präzision und Rückruf werden entwickelt, um die Mängel der Präzision und des Rückrufs auszugleichen. Wie ist FID, die Berechnung einer verbesserten Präzision und Rückruf erfordert das vorgebrachte Inception-V3-Modell. Studiogan verwendet die Pytorch -Implementierung, die von Entwicklern der Dichte- und Abdeckungswerte bereitgestellt wird.
Dichte- und Abdeckungsmetriken können die Treue und Vielfalt generierter Bilder mithilfe des vorgebildeten Inception-V3-Modells schätzen. Es ist bekannt, dass die Metriken für Ausreißer robust sind und identische reale und gefälschte Verteilungen erkennen können. Studiogan verwendet die offizielle Pytorch -Implementierung der Autoren, und Studiogan folgt dem Vorschlag des Autors für eine Hyperparameterauswahl.
Wir berichten von der besten IS, FID, verbesserter Präzision & Rückruf sowie Dichte und Berichterstattung von Gans.
Um alle in Studiogan gemeldeten Kontrollpunkte herunterzuladen, klicken Sie bitte hier (Umarmung der Gesichtsscheibe).
Sie können den Checkpoint bewerten, indem Sie die Option -ckpt CKPT_PATH mit der entsprechenden Konfigurationspfad -cfg CORRESPONDING_CONFIG_PATH hinzufügen.
Die Auflösungen von CIFAR10, Baby ImageNet, Papa ImageNet, Opa ImageNet, ImageNet, AFHQV2 und FQ sind 32, 64, 64, 64, 128, 512 bzw. 1024.
Wir verwenden die gleiche Anzahl generierter Bilder wie die Trainingsbilder für die Inception (FID), Präzision, Rückruf, Dichte und Berechnung der Abdeckung. Für die Experimente, die Baby/Papa/Opa ImageNet und ImageNet unter Verwendung von Baby/Papa/Opa -Imagnimset verwenden, verwenden wir in Ausnahmefällen 50K gefälschte Bilder gegen ein komplettes Trainingssatz als echte Bilder.
Alle Funktionen und Momente von Referenzdatensätzen können über Funktionen und Momente heruntergeladen werden.
Die Auflösungen von ImageNET-128 und ImageNet 256 betragen 128 bzw. 256.
Alle für Benchmark verwendeten Bilder können über ein Laufwerk heruntergeladen werden (werden bald hochgeladen).
-metrics is fid prdc ) von Bildordnern (bereits vorverarbeitet) in DSET1 und DSET2 unter Verwendung von GPUs (0,...,N) . CUDA_VISIBLE_DEVICES=0,...,N python3 src/evaluate.py -metrics is fid prdc --dset1 DSET1 --dset2 DSET2-metrics is fid prdc ) des in DSET2 gespeicherten Bildordners mit vorbereiteten Funktionen ( --dset1_feats DSET1_FEATS ), Momente von DSET1 ( --dset1_moments DSET1_MOMENTS ) und GPUs und GPUS (0,...,N) . CUDA_VISIBLE_DEVICES=0,...,N python3 src/evaluate.py -metrics is fid prdc --dset1_feats DSET1_FEATS --dset1_moments DSET1_MOMENTS --dset2 DSET2-metrics is fid prdc --post_resizer friendly ) von Bildordnern, die in DSET1 und DSET2 über DistributedDataParallel mit GPUs (0,...,N) gespeichert sind. export MASTER_ADDR= " localhost "
export MASTER_PORT=2222
CUDA_VISIBLE_DEVICES=0,...,N python3 src/evaluate.py -metrics is fid prdc --post_resizer friendly --dset1 DSET1 --dset2 DSET2 -DDP[MIT-Lizenz] Synchronisierte Batchnorm: https://github.com/vacancy/synchronized-batchnorm-pytorch
[MIT-Lizenz] Selbstbeschäftigungsmodul: https://github.com/voletiv/self-attention-gan-pytorch
[MIT-Lizenz] Diffaugment: https://github.com/mit-han-lab/data-effiction-gans
[MIT_LICENSE] Pytorch verbesserte Präzision und Rückruf: https://github.com/clovaai/generative-evaluation-prdc
[MIT_LICENSE] Pytorch Dichte und Berichterstattung: https://github.com/clovaai/generative-evaluation-prdc
[MIT-Lizenz] Pytorch Clean-Fid: https://github.com/gaparmar/clean-fid
[Nvidia Source Code -Lizenz] Stylegan2: https://github.com/nvlabs/stylegan2
[Nvidia Quellcode -Lizenz] Anpassungsdiskriminator Augmentation: https://github.com/nvlabs/stylegan2
[Apache-Lizenz] Pytorch FID: https://github.com/mseeutzer/pytorch-fid
Pytorch-Studiogan ist eine Open-Source-Bibliothek unter der MIT-Lizenz (MIT). Teile der Bibliothek sind jedoch unter unterschiedlichen Lizenzbegriffen durchschnittlich: Stylegan2, Stylegan2-ada und Stylegan3 sind unter NVIDIA-Quellcode-Lizenz lizenziert, und Pytorch-Fid ist unter Apache-Lizenz lizenziert.
Studiogan ist für die folgenden Forschungsprojekte eingerichtet. Bitte zitieren Sie unsere Arbeit, wenn Sie Studiogan verwenden.
@article { kang2023StudioGANpami ,
title = { {StudioGAN: A Taxonomy and Benchmark of GANs for Image Synthesis} } ,
author = { MinGuk Kang and Joonghyuk Shin and Jaesik Park } ,
journal = { IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI) } ,
year = { 2023 }
} @inproceedings { kang2021ReACGAN ,
title = { {Rebooting ACGAN: Auxiliary Classifier GANs with Stable Training} } ,
author = { Minguk Kang, Woohyeon Shim, Minsu Cho, and Jaesik Park } ,
journal = { Conference on Neural Information Processing Systems (NeurIPS) } ,
year = { 2021 }
} @inproceedings { kang2020ContraGAN ,
title = { {ContraGAN: Contrastive Learning for Conditional Image Generation} } ,
author = { Minguk Kang and Jaesik Park } ,
journal = { Conference on Neural Information Processing Systems (NeurIPS) } ,
year = { 2020 }
}[1] Experimente mit winzigem Imagnet werden unter Verwendung der Resnet -Architektur anstelle von CNN durchgeführt.
[2] Unsere Neuimplementierung von Acgan (ICML'17) mit leichten Modifikationen, die mit CIFAR10 eine starke Leistungsverbesserung für das Experiment bringen.