Yifan Jiang、Xinyu Gong、Ding Liu、Yu Cheng、Chen Fang、Xiaohui Shen、Jianchao Yang、Pan Zhou、Zhangyang Wang
[紙] [補足資料]


python3.5
少なくとも3 1080TI GPUを準備するか、バッチサイズを変更する必要があります。
pip install -r requirement.txt
mkdir model
[Google Drive 1]からVGG事前処理モデルをダウンロードしてから、ディレクトリmodelに入れます。
トレーニングプロセスを開始する前に、 visdom.server視覚化するために起動する必要があります。
nohup python -m visdom.server -port=8097
次に、次のコマンドを実行します
python scripts/script.py --train
前提条件のモデルをダウンロードして./checkpoints/enlightening enlighteningに入れます
Directories ../test_dataset/testAおよび../test_dataset/testBを作成します。テスト画像を../test_dataset/testAに掲載します(そして、プログラムが開始できるようにするには、 ../test_dataset/testB /testbに1つの画像を保持する必要があります。)
走る
python scripts/script.py --predict
トレーニングデータ[Googleドライブ](複数のデータセットから収集された対応のない画像)
テストデータ[Googleドライブ](LIME、MEF、NPE、VV、DICPを含む)
[Baiduyun]は@yhlelaineのおかげで現在入手できます!
https://github.com/arsenyinfo/enlightengan-inference @arsenyinfoから
この作品が役立つと思う場合は、引用してください
@article{jiang2021enlightengan,
title={Enlightengan: Deep light enhancement without paired supervision},
author={Jiang, Yifan and Gong, Xinyu and Liu, Ding and Cheng, Yu and Fang, Chen and Shen, Xiaohui and Yang, Jianchao and Zhou, Pan and Wang, Zhangyang},
journal={IEEE Transactions on Image Processing},
volume={30},
pages={2340--2349},
year={2021},
publisher={IEEE}
}