Yifan Jiang, Xinyu Gong, Ding Liu, Yu Cheng, Chen Fang, Xiaohui Shen, Jiancao Yang, Pan Zhou, Zhangyang Wang
[Documento] [Materiales complementarios]


python3.5
Debe preparar al menos 3 GPU 1080TI o cambiar el tamaño del lote.
pip install -r requirement.txt
mkdir model
Descargue el modelo VGG pretranado de [Google Drive 1], y luego póngalo en el model de directorio.
Antes de comenzar el proceso de capacitación, debe lanzar el visdom.server para visualizar.
nohup python -m visdom.server -port=8097
Luego ejecute el siguiente comando
python scripts/script.py --train
Descargue el modelo previamente y póngalo en ./checkpoints/enlightening
Crear directorios ../test_dataset/testA y ../test_dataset/testB . Pon sus imágenes de prueba en ../test_dataset/testA (y debe mantener cualquier imagen en ../test_dataset/testB para asegurarse de que el programa pueda comenzar).
Correr
python scripts/script.py --predict
Datos de capacitación [Google Drive] (imágenes no apareadas recopiladas de múltiples conjuntos de datos)
Datos de prueba [Google Drive] (incluyendo Lime, MEF, NPE, VV, DICP)
¡Y [Baiduyun] está disponible ahora gracias a @yhlelaine!
https://github.com/arsenyinfo/enlightengan-inference de @arsenyinfo
Si encuentra este trabajo útil para usted, por favor cita
@article{jiang2021enlightengan,
title={Enlightengan: Deep light enhancement without paired supervision},
author={Jiang, Yifan and Gong, Xinyu and Liu, Ding and Cheng, Yu and Fang, Chen and Shen, Xiaohui and Yang, Jianchao and Zhou, Pan and Wang, Zhangyang},
journal={IEEE Transactions on Image Processing},
volume={30},
pages={2340--2349},
year={2021},
publisher={IEEE}
}