mmaction
1.0.0
MmAction是基於Pytorch的動作理解的開源工具箱。它是由多媒體實驗室開發的開放式MMLAB項目的一部分。
MMACTION能夠處理以下所有任務。
支持各種數據集
近年來,視頻數據集已出現,並大大促進了該領域的發展。 MMACTION提供了處理各種數據集的工具。
支持多種行動理解框架
mmAction實現了流行框架以進行行動理解:
模塊化設計
人類行動理解中的任務具有一些共同的方面,例如骨幹以及長期和短期抽樣方案。此外,任務可以彼此受益。例如,更好的動作識別的骨干將帶來動作檢測的績效增長。模塊化設計使我們能夠以更集成的視角查看動作理解。
該項目是根據Apache 2.0許可證發布的。
Omnisource型號發布(22/08/2020)
V0.2.0(15/03/2020)
V0.1.0(2019年6月19日)
結果和參考模型在模型動物園中可用。
請參閱install.md進行安裝。
更新:有關Docker安裝,請參閱Docker.md,以便將Docker用於此項目。
有關數據準備的一般知識,請參考DataSet.md。支持數據集的詳細文檔可在data_tools/ 。
有關詳細的示例和抽像用法,請參閱Get_started.md。
我們感謝為改善MMATIC的所有貢獻。請參閱contrufing.md以獲取貢獻指南。
如果您在研究中使用我們的代碼庫或模型,請引用這項工作。稍後我們將發布一份技術報告。
@misc{mmaction2019,
author = {Yue Zhao, Yuanjun Xiong, Dahua Lin},
title = {MMAction},
howpublished = {url{https://github.com/open-mmlab/mmaction}},
year = {2019}
}
如果您有任何疑問,請提交問題或聯繫作者:
Yue Zhao: [email protected]