MMACTION เป็นกล่องเครื่องมือโอเพ่นซอร์สสำหรับการทำความเข้าใจการดำเนินการตาม pytorch มันเป็นส่วนหนึ่งของโครงการ Open-MMLAB ที่พัฒนาโดย Multimedia Laboratory, Cuhk
MMAction มีความสามารถในการจัดการกับงานทั้งหมดด้านล่าง
รองรับชุดข้อมูลต่างๆ
ชุดข้อมูลวิดีโอได้เกิดขึ้นตลอดช่วงไม่กี่ปีที่ผ่านมาและได้ส่งเสริมการพัฒนาของฟิลด์นี้อย่างมาก MMACTION จัดเตรียมเครื่องมือในการจัดการกับชุดข้อมูลต่าง ๆ
สนับสนุนกรอบการทำความเข้าใจการกระทำหลายอย่าง
MMACTION ใช้เฟรมเวิร์กยอดนิยมสำหรับการทำความเข้าใจการกระทำ:
การออกแบบแบบแยกส่วน
งานในการทำความเข้าใจการกระทำของมนุษย์แบ่งปันแง่มุมที่พบบ่อยเช่นแบ็คโบนและแผนการสุ่มตัวอย่างระยะยาวและระยะสั้น นอกจากนี้งานจะได้รับประโยชน์จากกันและกัน ตัวอย่างเช่นกระดูกสันหลังที่ดีกว่าสำหรับการจดจำการกระทำจะนำประสิทธิภาพการทำงานสำหรับการตรวจจับการดำเนินการ การออกแบบแบบแยกส่วนช่วยให้เราสามารถดูความเข้าใจการกระทำในมุมมองแบบบูรณาการมากขึ้น
โครงการจะเปิดตัวภายใต้ใบอนุญาต Apache 2.0
Omnisource Model Release (22/08/2020)
v0.2.0 (15/03/2020)
v0.1.0 (19/06/2019)
ผลลัพธ์และรูปแบบการอ้างอิงมีอยู่ในสวนสัตว์รุ่น
โปรดดูที่การติดตั้ง MD สำหรับการติดตั้ง
อัปเดต: สำหรับการติดตั้ง Docker โปรดดูที่ Docker.md สำหรับการใช้ Docker สำหรับโครงการนี้
โปรดดูที่ DataSet.md สำหรับความรู้ทั่วไปเกี่ยวกับการเตรียมข้อมูล เอกสารรายละเอียดสำหรับชุดข้อมูลที่รองรับมีอยู่ใน data_tools/
โปรดดูที่ Geting_Started.md สำหรับตัวอย่างโดยละเอียดและการใช้งานนามธรรม
เราขอขอบคุณการมีส่วนร่วมทั้งหมดเพื่อปรับปรุง MMAction โปรดดู contrubuting.md สำหรับแนวทางที่มีส่วนร่วม
หากคุณใช้ codebase หรือโมเดลของเราในการวิจัยของคุณโปรดอ้างอิงงานนี้ เราจะเผยแพร่รายงานทางเทคนิคในภายหลัง
@misc{mmaction2019,
author = {Yue Zhao, Yuanjun Xiong, Dahua Lin},
title = {MMAction},
howpublished = {url{https://github.com/open-mmlab/mmaction}},
year = {2019}
}
หากคุณมีคำถามใด ๆ โปรดยื่นปัญหาหรือติดต่อผู้เขียน:
Yue Zhao: [email protected]