[ Отчет ]
PYSKL - это набор инструментов, посвященный распознаванию действий на основе данных SK E L Eton с помощью Torch . Различные алгоритмы будут поддерживать для распознавания действий на основе скелета. Мы строим этот проект на основе проекта OpenSource MMAction2.
Это репо является официальной реализацией PoseConv3D и STGCN ++.


Слева: результаты распознавания действий скелетной базы на NTU-RGB+D-120; Справа: результаты распознавания жестов в реальном времени в реальном времени
--compile для обучения/тестирования сценариев и с помощью torch.__version__ >= 'v2.0.0' обнаружено, будет использовать torch.compile для составления модели перед обучением/тестированием. Экспериментальная функция, абсолютно без гарантии на производительность ( 2023-03-16 ).git clone https://github.com/kennymckormick/pyskl.git
cd pyskl
# This command runs well with conda 22.9.0, if you are running an early conda version and got some errors, try to update your conda first
conda env create -f pyskl.yaml
conda activate pyskl
pip install -e . Проверьте Demo.md.
Мы предоставляем 2D -скелеты HRNet для каждого набора данных, который мы поддерживали, и Kinect 3D -скелеты для набора данных NTURGB+D и NTURGB+D 120. Чтобы получить аннотации человеческого скелета, вы можете:
ntu60_3danno.pkl и ntu120_3danno.pkl . Для получения подробных инструкций следуйте документу данных.Вы можете использовать Vis_skeleton для визуализации предоставленных данных скелета.
Вы можете использовать следующие команды для обучения и тестирования. По сути, мы поддерживаем распределенную подготовку на одном сервере с несколькими графическими процессорами.
# Training
bash tools/dist_train.sh {config_name} {num_gpus} {other_options}
# Testing
bash tools/dist_test.sh {config_name} {checkpoint} {num_gpus} --out {output_file} --eval top_k_accuracy mean_class_accuracyДля конкретных примеров, пожалуйста, перейдите в ReadMe для каждого конкретного алгоритма, который мы поддерживали.
Если вы используете PYSKL в своем исследовании или хотите ссылаться на базовые результаты, опубликованные в модельном зоопарке, используйте следующую запись Bibtex и запись Bibtex, соответствующую конкретному алгоритму, который вы использовали.
@inproceedings { duan2022pyskl ,
title = { Pyskl: Towards good practices for skeleton action recognition } ,
author = { Duan, Haodong and Wang, Jiaqi and Chen, Kai and Lin, Dahua } ,
booktitle = { Proceedings of the 30th ACM International Conference on Multimedia } ,
pages = { 7351--7354 } ,
year = { 2022 }
}PYSKL является проектом OpenSource по лицензии Apache2. Любой вклад сообщества в улучшение PYSKL ценится. Для значительных вкладов (например, поддержки новой и важной задачи), соответствующая часть будет добавлена в наш обновленный технологический отчет, в то время как участник также будет добавлен в список авторов.
Любой пользователь может открыть PR, чтобы внести свой вклад в PYSKL. PR будет рассмотрен, прежде чем быть объединенным в главную филиал. Если вы хотите открыть большой PR в PYSKL, вам рекомендуется сначала связаться со мной (по электронной почте [email protected]) обсудить дизайн, который помогает сэкономить большое количество времени на этапе рецензирования.
По любым вопросам, не стесняйтесь связаться: [email protected]