MMAction은 Pytorch를 기반으로하는 작업 이해를위한 오픈 소스 도구 상자입니다. Multimedia Laboratory, CUHK가 개발 한 Open-MMLAB 프로젝트의 일부입니다.
MMAction은 아래의 모든 작업을 처리 할 수 있습니다.
다양한 데이터 세트에 대한 지원
비디오 데이터 세트는 최근 몇 년 동안 떠오르고 있으며이 분야의 Devlopment를 크게 육성했습니다. MMAction은 다양한 데이터 세트를 처리하는 도구를 제공합니다.
다중 행동 이해 프레임 워크에 대한 지원
MMAction은 행동 이해를위한 대중적인 프레임 워크를 구현합니다.
모듈 식 디자인
인간 행동 이해의 과제는 백본, 장기 및 단기 샘플링 체계와 같은 몇 가지 일반적인 측면을 공유합니다. 또한 작업은 서로 혜택을받을 수 있습니다. 예를 들어, 액션 인식을위한 더 나은 백본은 작업 감지의 성능 이득을 가져옵니다. 모듈 식 디자인을 통해보다 통합 된 관점에서 행동 이해를 볼 수 있습니다.
이 프로젝트는 Apache 2.0 라이센스에 따라 릴리스됩니다.
Omnisource 모델 릴리스 (22/08/2020)
v0.2.0 (15/03/2020)
v0.1.0 (19/06/2019)
결과 및 참조 모델은 모델 동물원에서 제공됩니다.
설치는 install.md를 참조하십시오.
업데이트 : Docker 설치에 대해서는이 프로젝트에 Docker를 사용하려면 Docker.md를 참조하십시오.
데이터 준비에 대한 일반적인 지식은 Dataset.md를 참조하십시오. 지원되는 데이터 세트에 대한 자세한 문서는 data_tools/ 에서 제공됩니다.
자세한 예제 및 초록 사용법은 Gettry_started.md를 참조하십시오.
MMAction을 개선하기위한 모든 기여에 감사드립니다. 기고 가이드 라인은 Contrubuting.md를 참조하십시오.
연구에서 코드베이스 또는 모델을 사용하는 경우이 작업을 인용하십시오. 나중에 기술 보고서를 발표 할 예정입니다.
@misc{mmaction2019,
author = {Yue Zhao, Yuanjun Xiong, Dahua Lin},
title = {MMAction},
howpublished = {url{https://github.com/open-mmlab/mmaction}},
year = {2019}
}
질문이 있으시면 문제를 제기하거나 저자에게 연락하십시오.
Yue Zhao: [email protected]