Arxiv Paper Version
Pytorch -Implementierung des Papiers Deblurgan: Blind Motion Deblurring unter Verwendung von bedingten kontroversen Netzwerken.
Unser Netzwerk nimmt verschwommenes Bild als Eingabe und produziert die entsprechende scharfe Schätzung wie im Beispiel: 

Das von uns verwendete Modell ist bedingte Wasserstein Gan mit Gradientenstrafe + Wahrnehmungsverlust basierend auf VGG-19-Aktivierungen. Eine solche Architektur liefert auch gute Ergebnisse zu anderen Bild-zu-Image-Übersetzungsproblemen (Superauflösung, Farbkolorisierung, Inpainting, Neuerung usw.)
Laden Sie Gewichte von Google Drive herunter. Beachten Sie, dass Sie während der Schlussfolgerung nur Generatorgewichte aufbewahren müssen.
In die Gewichte setzen
/.checkpoints/experiment_nameUm ein Modell zu testen, geben Sie Ihre verschwommenen Bilder in einen Ordner und führen Sie aus:
python test.py --dataroot /.path_to_your_data --model test --dataset_mode single --learn_residualLaden Sie den Datensatz für Objekterkennungsbenchmark von Google Drive herunter
Wenn Sie das Modell auf Ihren Daten trainieren möchten, führen Sie den folgenden Befehl aus, um Bildpaare zu erstellen:
python datasets/combine_A_and_B.py --fold_A /path/to/data/A --fold_B /path/to/data/B --fold_AB /path/to/dataUnd dann der folgende Befehl, um das Modell zu trainieren
python train.py --dataroot /.path_to_your_data --learn_residual --resize_or_crop crop --fineSize CROP_SIZE (we used 256)Keras Blog
Keras -Repository
Wenn Sie unseren Code in Ihrer Forschung oder Arbeit hilfreich finden, zitieren Sie bitte unser Papier.
@article{DeblurGAN,
title = {DeblurGAN: Blind Motion Deblurring Using Conditional Adversarial Networks},
author = {Kupyn, Orest and Budzan, Volodymyr and Mykhailych, Mykola and Mishkin, Dmytro and Matas, Jiri},
journal = {ArXiv e-prints},
eprint = {1711.07064},
year = 2017
}
Code leiht sich stark von pix2pix. Die Bilder wurden aus dem Gopro -Testdatensatz - Deepdeblur aufgenommen