Yifan Jiang, Xinyu Gong, Ding Liu, Yu Cheng, Chen Fang, Xiaohui Shen, Jianchao Yang, Pan Zhou, Zhangyang Wang
[종이] [보충 자료]


python3.5
최소 3 1080Ti GPU를 준비하거나 배치 크기를 변경해야합니다.
pip install -r requirement.txt
mkdir model
[Google Drive 1]에서 VGG 사전 모델을 다운로드 한 다음 디렉토리 model 에 넣으십시오.
교육 과정을 시작하기 전에 시각화를 위해 visdom.server 를 시작해야합니다.
nohup python -m visdom.server -port=8097
그런 다음 다음 명령을 실행하십시오
python scripts/script.py --train
사전 모델을 다운로드하여 ./checkpoints/enlightening 에 넣으십시오
디렉토리 작성 ../test_dataset/testA 및 ../test_dataset/testB 를 만듭니다. 테스트 이미지를 ../test_dataset/testA 에 올려 놓으십시오 (그리고 프로그램이 시작될 수 있는지 확인하려면 하나 ../test_dataset/testB 이미지를 보관해야합니다.)
달리다
python scripts/script.py --predict
교육 데이터 [Google Drive] (여러 데이터 세트에서 수집 한 짝을 이루지 않은 이미지)
데이터 테스트 [Google Drive] (Lime, MEF, NPE, VV, DICP 포함)
그리고 [Baiduyun]은 @yhlelaine 덕분에 제공됩니다!
@arsenyinfo의 https://github.com/arsenyinfo/enlightengan- inference
이 일이 당신에게 유용하다고 생각하면 인용하십시오
@article{jiang2021enlightengan,
title={Enlightengan: Deep light enhancement without paired supervision},
author={Jiang, Yifan and Gong, Xinyu and Liu, Ding and Cheng, Yu and Fang, Chen and Shen, Xiaohui and Yang, Jianchao and Zhou, Pan and Wang, Zhangyang},
journal={IEEE Transactions on Image Processing},
volume={30},
pages={2340--2349},
year={2021},
publisher={IEEE}
}