MMAction هو صندوق أدوات مفتوح المصدر لفهم الإجراء بناءً على Pytorch. إنه جزء من مشروع MMLAB المفتوح الذي طورته مختبر الوسائط المتعددة ، Cuhk.
MMAction قادر على التعامل مع جميع المهام أدناه.
دعم لمختلف مجموعات البيانات
ظهرت مجموعات بيانات الفيديو طوال السنوات الأخيرة وقد عززت بشكل كبير devlopment لهذا المجال. يوفر MMActe أدوات للتعامل مع مجموعات البيانات المختلفة.
دعم أطر عمل فهم متعددة
ينفذ mmacted الأطر الشعبية لفهم العمل:
تصميم وحدات
تشترك المهام في فهم الإجراءات البشرية في بعض الجوانب الشائعة مثل العمود الفقري ، ومخططات أخذ العينات على المدى الطويل وقصيرة الأجل. أيضا ، يمكن أن تستفيد المهام من بعضها البعض. على سبيل المثال ، فإن العمود الفقري الأفضل للتعرف على الإجراءات سيؤدي إلى زيادة الأداء للكشف عن العمل. يمكّننا التصميم المعياري من عرض فهم الإجراء في منظور أكثر تكاملاً.
يتم إصدار المشروع بموجب ترخيص Apache 2.0.
إصدار نموذج Omnisource (22/08/2020)
v0.2.0 (15/03/2020)
v0.1.0 (19/06/2019)
النتائج والنماذج المرجعية متوفرة في حديقة الحيوان النموذجية.
يرجى الرجوع إلى install.md للتثبيت.
تحديث: لتثبيت Docker ، يرجى الرجوع إلى Docker.md لاستخدام Docker لهذا المشروع.
يرجى الرجوع إلى Dataset.md للحصول على معرفة عامة بإعداد البيانات. تتوفر مستندات مفصلة لمجموعات البيانات المدعومة في data_tools/ .
يرجى الرجوع إلى get_started.md للحصول على أمثلة مفصلة واستخدام تجريدي.
نحن نقدر جميع المساهمات لتحسين mment. يرجى الرجوع إلى Contrubuting.md للمبادئ التوجيهية المساهمة.
إذا كنت تستخدم قاعدة كود أو نماذج في بحثك ، فيرجى الاستشهاد بهذا العمل. سنصدر تقريرًا فنيًا لاحقًا.
@misc{mmaction2019,
author = {Yue Zhao, Yuanjun Xiong, Dahua Lin},
title = {MMAction},
howpublished = {url{https://github.com/open-mmlab/mmaction}},
year = {2019}
}
إذا كان لديك أي سؤال ، يرجى تقديم مشكلة أو الاتصال بالمؤلف:
Yue Zhao: [email protected]