MMAction - это набор инструментов с открытым исходным кодом для понимания действий на основе Pytorch. Это часть проекта Open-MMLAB, разработанного мультимедийной лабораторией, CUHK.
MMAction способен справиться со всеми задачами ниже.
Поддержка различных наборов данных
Наборы данных видео появлялись в течение последних лет и значительно способствовали развитию этой области. MMAction предоставляет инструменты для работы с различными наборами данных.
Поддержка многократных фреймворков понимания действий
MMAction реализует популярные рамки для понимания действий:
Модульный дизайн
Задачи в понимании человеческих действий имеют некоторые общие аспекты, такие как основы, а также схемы долгосрочных и краткосрочных отборов. Кроме того, задачи могут извлечь выгоду друг от друга. Например, лучшая основая для распознавания действий принесет повышение производительности для обнаружения действий. Модульный дизайн позволяет нам просматривать понимание действий в более интегрированной перспективе.
Проект выпускается по лицензии Apache 2.0.
Выпуск модели OmniSource (22/08/2020)
v0.2.0 (15/03/2020)
v0.1.0 (19/06/2019)
Результаты и эталонные модели доступны в модельном зоопарке.
Пожалуйста, обратитесь к install.md для установки.
Обновление: для установки Docker, пожалуйста, обратитесь к Docker.md для использования Docker для этого проекта.
Пожалуйста, обратитесь к DataSet.md для общего знания подготовки данных. Подробные документы для поддерживаемых наборов данных доступны в data_tools/ .
Пожалуйста, обратитесь к get get_started.md для подробных примеров и абстрактного использования.
Мы ценим все вклады для улучшения MMACTION. Пожалуйста, обратитесь к Contrubuting.md для получения руководства.
Если вы используете нашу кодовую базу или модели в своем исследовании, пожалуйста, укажите эту работу. Мы выпустим технический отчет позже.
@misc{mmaction2019,
author = {Yue Zhao, Yuanjun Xiong, Dahua Lin},
title = {MMAction},
howpublished = {url{https://github.com/open-mmlab/mmaction}},
year = {2019}
}
Если у вас есть какие -либо вопросы, подайте проблему или свяжитесь с автором:
Yue Zhao: [email protected]