Versão em papel arxiv
Implementação de Pytorch do Artigo Deblurgan: Deblurração do movimento cego usando redes adversárias condicionais.
Nossa rede toma imagem embaçada como uma entrada e procue a estimativa nítida correspondente, como no exemplo: 

O modelo que usamos é o Wasserstein GaN condicional com penalidade de gradiente + perda perceptiva com base nas ativações VGG-19. Essa arquitetura também fornece bons resultados sobre outros problemas de tradução de imagem para imagem (super resolução, colorização, pintura, incentivo etc.)
Faça o download de pesos do Google Drive. Observe que, durante a inferência, você precisa manter apenas os pesos do gerador.
Coloque os pesos em
/.checkpoints/experiment_namePara testar um modelo, coloque suas imagens embaçadas em uma pasta e execute:
python test.py --dataroot /.path_to_your_data --model test --dataset_mode single --learn_residualFaça o download do conjunto de dados para referência de detecção de objetos do Google Drive
Se você deseja treinar o modelo em seus dados, execute o seguinte comando para criar pares de imagens:
python datasets/combine_A_and_B.py --fold_A /path/to/data/A --fold_B /path/to/data/B --fold_AB /path/to/dataE então o seguinte comando para treinar o modelo
python train.py --dataroot /.path_to_your_data --learn_residual --resize_or_crop crop --fineSize CROP_SIZE (we used 256)Blog Keras
Repositório de Keras
Se você achar útil nosso código em sua pesquisa ou trabalho, cite nosso artigo.
@article{DeblurGAN,
title = {DeblurGAN: Blind Motion Deblurring Using Conditional Adversarial Networks},
author = {Kupyn, Orest and Budzan, Volodymyr and Mykhailych, Mykola and Mishkin, Dmytro and Matas, Jiri},
journal = {ArXiv e-prints},
eprint = {1711.07064},
year = 2017
}
O código empresta muito a partir de Pix2pix. As imagens foram tiradas do conjunto de dados do GoPro Test - Deepdeblur