MMAction adalah kotak alat open source untuk pemahaman tindakan berdasarkan Pytorch. Ini adalah bagian dari proyek Open-Mmlab yang dikembangkan oleh Multimedia Laboratory, Cuhk.
MMACTION mampu menangani semua tugas di bawah ini.
Dukungan untuk berbagai set data
Dataset video telah muncul selama beberapa tahun terakhir dan telah sangat menumbuhkan devlopment bidang ini. MMACTION menyediakan alat untuk menangani berbagai dataset.
Dukungan untuk berbagai kerangka kerja pemahaman tindakan
MMACTION mengimplementasikan kerangka kerja populer untuk pemahaman tindakan:
Desain Modular
Tugas-tugas dalam pemahaman aksi manusia berbagi beberapa aspek umum seperti tulang punggung, dan skema pengambilan sampel jangka panjang dan jangka pendek. Juga, tugas dapat mengambil manfaat satu sama lain. Misalnya, tulang punggung yang lebih baik untuk pengakuan tindakan akan membawa perolehan kinerja untuk deteksi tindakan. Desain modular memungkinkan kita untuk melihat pemahaman tindakan dalam perspektif yang lebih terintegrasi.
Proyek ini dirilis di bawah lisensi Apache 2.0.
Rilis Model Omnisource (22/08/2020)
V0.2.0 (15/03/2020)
V0.1.0 (19/06/2019)
Hasil dan model referensi tersedia di Zoo Model.
Silakan merujuk ke install.md untuk instalasi.
UPDATE: Untuk instalasi Docker, silakan merujuk ke Docker.md untuk menggunakan Docker untuk proyek ini.
Silakan merujuk ke Dataset.md untuk pengetahuan umum tentang persiapan data. Dokumen terperinci untuk set data yang didukung tersedia di data_tools/ .
Silakan merujuk ke Geting_Started.md untuk contoh terperinci dan penggunaan abstrak.
Kami menghargai semua kontribusi untuk meningkatkan mmaction. Silakan merujuk ke contrubuting.md untuk pedoman yang berkontribusi.
Jika Anda menggunakan basis kode atau model kami dalam penelitian Anda, silakan kutip pekerjaan ini. Kami akan merilis laporan teknis nanti.
@misc{mmaction2019,
author = {Yue Zhao, Yuanjun Xiong, Dahua Lin},
title = {MMAction},
howpublished = {url{https://github.com/open-mmlab/mmaction}},
year = {2019}
}
Jika Anda memiliki pertanyaan, silakan ajukan masalah atau hubungi penulis:
Yue Zhao: [email protected]