在欧洲计算机视觉会议(ECCV)2024
(2024.08.07)我们发布了基于Kepoint的面部图像动画的推理脚本!请参考以获取更多说明。
(2024.07.15)我们发布了基于轨迹的图像动画的训练代码!请参考以获取更多说明。
MOFA-VIDEO将出现在ECCV 2024中! ???????
我们已经发布了Gradio推理代码和混合控件的检查点!请参考以获取更多说明。
通过拥抱面空间的免费在线演示即将到来!
如果您觉得这项工作很有趣,请随时给予一个!
![]() | ![]() | ![]() |
| 轨迹 +地标控制 | ||
![]() | ![]() | ![]() | ![]() |
| 轨迹控制 | |||
![]() | ![]() | ![]() | ![]() | ![]() |
| 地标控制 | ||||
我们介绍了MOFA-VIDEO,该方法旨在将不同域的运动调整为冷冻视频扩散模型。通过采用稀疏到密度(S2D)运动产生和基于流动的运动适应性,MOFA-VIDEO可以使用各种类型的控制信号(包括轨迹,关键点序列及其组合)有效地对单个图像进行动画。

在训练阶段,我们通过稀疏运动采样生成稀疏的控制信号,然后训练不同的MOFA适配器通过预训练的SVD生成视频。在推论阶段,可以将不同的MOFA适配器组合在一起以共同控制冷冻的SVD。
git clone https://github.com/MyNiuuu/MOFA-Video.git
cd ./MOFA-Video
该演示已在11.7的CUDA版本上进行了测试。
cd ./MOFA-Video-Hybrid
conda create -n mofa python==3.10
conda activate mofa
pip install -r requirements.txt
pip install opencv-python-headless
pip install "git+https://github.com/facebookresearch/pytorch3d.git"
重要的:requirements.txt在需求中的4.5.0的Gradio版本应严格遵循,因为其他版本可能会导致错误。
从此处下载CMP的检查点,然后将其放入./MOFA-Video-Hybrid/models/cmp/experiments/semiauto_annot/resnet50_vip+mpii_liteflow/checkpoints 。
从HuggingFace Repo下载ckpts文件夹,其中包含必要的验证检查点,并将其放在./MOFA-Video-Hybrid下。您可以使用git lfs下载整个ckpts文件夹:
git lfs 。它通常用于在拥抱面上具有大型模型检查点的克隆存储库。git clone https://huggingface.co/MyNiuuu/MOFA-Video-Hybrid下载完整的HuggingFace存储库,目前仅包括ckpts文件夹。ckpts文件夹移至GitHub存储库。注意:如果遇到错误git: 'lfs' is not a git command ,则可以尝试使用此解决方案,该解决方案对我的情况有效。
最后,检查点应被视为./MOFA-Video-Hybrid/ckpt_tree.md 。
使用音频使面部零件动画
cd ./MOFA-Video-Hybrid
python run_gradio_audio_driven.py
??? Gradio接口显示如下。请在推理过程中请参阅Gradio接口上的说明!

使用参考视频使面部零件动画
cd ./MOFA-Video-Hybrid
python run_gradio_video_driven.py
??? Gradio接口显示如下。请在推理过程中请参阅Gradio接口上的说明!

请参阅此处以获取说明。
请参考以获取更多说明。
@article{niu2024mofa,
title={MOFA-Video: Controllable Image Animation via Generative Motion Field Adaptions in Frozen Image-to-Video Diffusion Model},
author={Niu, Muyao and Cun, Xiaodong and Wang, Xintao and Zhang, Yong and Shan, Ying and Zheng, Yinqiang},
journal={arXiv preprint arXiv:2405.20222},
year={2024}
}
我们真诚地感谢以下项目的代码发布:Dragnuwa,Sadtalker,Aniportrait,扩散器,SVD_XTEND,条件 - 动作 - propagation和unimatch。