mmaction
1.0.0
MmAction是基于Pytorch的动作理解的开源工具箱。它是由多媒体实验室开发的开放式MMLAB项目的一部分。
MMACTION能够处理以下所有任务。
支持各种数据集
近年来,视频数据集已出现,并大大促进了该领域的发展。 MMACTION提供了处理各种数据集的工具。
支持多种行动理解框架
mmAction实现了流行框架以进行行动理解:
模块化设计
人类行动理解中的任务具有一些共同的方面,例如骨干以及长期和短期抽样方案。此外,任务可以彼此受益。例如,更好的动作识别的骨干将带来动作检测的绩效增长。模块化设计使我们能够以更集成的视角查看动作理解。
该项目是根据Apache 2.0许可证发布的。
Omnisource型号发布(22/08/2020)
V0.2.0(15/03/2020)
V0.1.0(2019年6月19日)
结果和参考模型在模型动物园中可用。
请参阅install.md进行安装。
更新:有关Docker安装,请参阅Docker.md,以便将Docker用于此项目。
有关数据准备的一般知识,请参考DataSet.md。支持数据集的详细文档可在data_tools/ 。
有关详细的示例和抽象用法,请参阅Get_started.md。
我们感谢为改善MMATIC的所有贡献。请参阅contrufing.md以获取贡献指南。
如果您在研究中使用我们的代码库或模型,请引用这项工作。稍后我们将发布一份技术报告。
@misc{mmaction2019,
author = {Yue Zhao, Yuanjun Xiong, Dahua Lin},
title = {MMAction},
howpublished = {url{https://github.com/open-mmlab/mmaction}},
year = {2019}
}
如果您有任何疑问,请提交问题或联系作者:
Yue Zhao: [email protected]