Yifan Jiang, Xinyu Gong, Ding Liu, Yu Cheng, Chen Fang, Xiaohui Shen, Jianchao Yang, Pan Zhou, Zhangyang Wang
[Papel] [Materiais Suplementares]


python3.5
Você deve preparar pelo menos 3 GPUs 1080TI ou alterar o tamanho do lote.
pip install -r requirement.txt
mkdir model
Faça o download do modelo VGG pré -terenciado do [Google Drive 1] e coloque -o no model de diretório.
Antes de iniciar o processo de treinamento, você deve iniciar o visdom.server para visualizar.
nohup python -m visdom.server -port=8097
Em seguida, execute o seguinte comando
python scripts/script.py --train
Baixe o modelo pré -terenciado e coloque -o em ./checkpoints/enlightening
Criar diretórios ../test_dataset/testA e ../test_dataset/testB . Coloque suas imagens de teste em ../test_dataset/testA (e você deve manter qualquer imagem em ../test_dataset/testB para garantir que o programa possa iniciar.)
Correr
python scripts/script.py --predict
Dados de treinamento [Google Drive] (imagens não pareadas coletadas de vários conjuntos de dados)
Dados de teste [Google Drive] (incluindo Lime, MEF, NPE, VV, DICP)
E [Baiduyun] está disponível agora graças a @yhlelaine!
https://github.com/arsenyinfo/enlightenganinference de @arsenyinfo
Se você achar este trabalho útil para você, cite
@article{jiang2021enlightengan,
title={Enlightengan: Deep light enhancement without paired supervision},
author={Jiang, Yifan and Gong, Xinyu and Liu, Ding and Cheng, Yu and Fang, Chen and Shen, Xiaohui and Yang, Jianchao and Zhou, Pan and Wang, Zhangyang},
journal={IEEE Transactions on Image Processing},
volume={30},
pages={2340--2349},
year={2021},
publisher={IEEE}
}