sepconv slomo
1.0.0
現在,這項工作已由:https://github.com/sniklaus/revisiting-sepconv取代
這是通過使用Pytorch通過自適應分離卷積[1]的視頻框架插值的參考實現。給定兩個幀,它將以可分離的方式利用自適應卷積[2]來插入中間框架。如果您使用我們的作品,請引用我們的論文[1]。
有關我們的工作的重新安裝,請參見:https://github.com/martkartasev/sepconv
以及另一種改編
有關SoftMax剝離,請參閱:https://github.com/sniklaus/softmax-splatting
可分離的捲積層是使用CUPY在CUDA中實現的,這就是為什麼CUPY是必需的依賴性的原因。它可以使用pip install cupy或使用cupy存儲庫中概述的提供的二進制包裝之一安裝。
如果您打算處理視頻,請確保安裝了pip install moviepy 。
要使用自己的幀運行,請使用以下命令。您可以選擇l1或lf型號,請參閱我們的論文以獲取更多詳細信息。簡而言之, l1模型應用於定量評估和lf模型進行定性比較。
python run.py --model lf --one ./images/one.png --two ./images/two.png --out ./out.png
要在視頻上運行,請使用以下命令。
python run.py --model lf --video ./videos/car-turn.mp4 --out ./out.mp4
對於使用Middlebury Benchmark的示例快速基准進行光學流程,請運行python benchmark.py 。您可以使用它來輕鬆驗證所提供的實現是否按預期運行。
提供的實施僅是出於學術目的。如果您有興趣將我們的技術用於任何商業用途,請隨時與我們聯繫。
[1] @inproceedings{Niklaus_ICCV_2017,
author = {Simon Niklaus and Long Mai and Feng Liu},
title = {Video Frame Interpolation via Adaptive Separable Convolution},
booktitle = {IEEE International Conference on Computer Vision},
year = {2017}
}
[2] @inproceedings{Niklaus_CVPR_2017,
author = {Simon Niklaus and Long Mai and Feng Liu},
title = {Video Frame Interpolation via Adaptive Convolution},
booktitle = {IEEE Conference on Computer Vision and Pattern Recognition},
year = {2017}
}
這項工作得到了NSF IIS-1321119的支持。上面的視頻使用創意公共許可證或所有者許可下的材料,如最終所述。