sepconv slomo
1.0.0
现在,这项工作已由:https://github.com/sniklaus/revisiting-sepconv取代
这是通过使用Pytorch通过自适应分离卷积[1]的视频框架插值的参考实现。给定两个帧,它将以可分离的方式利用自适应卷积[2]来插入中间框架。如果您使用我们的作品,请引用我们的论文[1]。
有关我们的工作的重新安装,请参见:https://github.com/martkartasev/sepconv
以及另一种改编
有关SoftMax剥离,请参阅:https://github.com/sniklaus/softmax-splatting
可分离的卷积层是使用CUPY在CUDA中实现的,这就是为什么CUPY是必需的依赖性的原因。它可以使用pip install cupy或使用cupy存储库中概述的提供的二进制包装之一安装。
如果您打算处理视频,请确保安装了pip install moviepy 。
要使用自己的帧运行,请使用以下命令。您可以选择l1或lf型号,请参阅我们的论文以获取更多详细信息。简而言之, l1模型应用于定量评估和lf模型进行定性比较。
python run.py --model lf --one ./images/one.png --two ./images/two.png --out ./out.png
要在视频上运行,请使用以下命令。
python run.py --model lf --video ./videos/car-turn.mp4 --out ./out.mp4
对于使用Middlebury Benchmark的示例快速基准进行光学流程,请运行python benchmark.py 。您可以使用它来轻松验证所提供的实现是否按预期运行。
提供的实施仅是出于学术目的。如果您有兴趣将我们的技术用于任何商业用途,请随时与我们联系。
[1] @inproceedings{Niklaus_ICCV_2017,
author = {Simon Niklaus and Long Mai and Feng Liu},
title = {Video Frame Interpolation via Adaptive Separable Convolution},
booktitle = {IEEE International Conference on Computer Vision},
year = {2017}
}
[2] @inproceedings{Niklaus_CVPR_2017,
author = {Simon Niklaus and Long Mai and Feng Liu},
title = {Video Frame Interpolation via Adaptive Convolution},
booktitle = {IEEE Conference on Computer Vision and Pattern Recognition},
year = {2017}
}
这项工作得到了NSF IIS-1321119的支持。上面的视频使用创意公共许可证或所有者许可下的材料,如最终所述。