[ Rapport ]
Pyskl est une boîte à outils axée sur la reconnaissance d'action basée sur les données de sk e l eton avec Py Torch. Divers algorithmes seront pris en charge pour la reconnaissance d'action basée sur le squelette. Nous construisons ce projet en fonction du projet OpenSource MMAction2.
Ce dépôt est la mise en œuvre officielle de PosEConv3d et STGCN ++.


Gauche: résultats de reconnaissance d'action de base squelette sur NTU-RGB + D-120; Droite: CPU Résultats de reconnaissance des gestes de base squelette en temps réel
--compile pour les scripts de formation / test et avec torch.__version__ >= 'v2.0.0' détecté, utilisera torch.compile pour compiler le modèle avant la formation / les tests. Caractéristique expérimentale, absolument aucune garantie de performance ( 2023-03-16 ).git clone https://github.com/kennymckormick/pyskl.git
cd pyskl
# This command runs well with conda 22.9.0, if you are running an early conda version and got some errors, try to update your conda first
conda env create -f pyskl.yaml
conda activate pyskl
pip install -e . Vérifiez Demo.md.
Nous fournissons des squelettes HRNET 2D pour chaque ensemble de données que nous avons pris en charge et Kinect 3D Skeletons pour l'ensemble de données NTURGB + D et NTURGB + D 120. Pour obtenir les annotations du squelette humain, vous pouvez:
ntu60_3danno.pkl et ntu120_3danno.pkl . Pour des instructions détaillées, suivez les données DOC.Vous pouvez utiliser Vis_skeleton pour visualiser les données squelettes fournies.
Vous pouvez utiliser les commandes suivantes pour la formation et les tests. Fondamentalement, nous prenons en charge la formation distribuée sur un seul serveur avec plusieurs GPU.
# Training
bash tools/dist_train.sh {config_name} {num_gpus} {other_options}
# Testing
bash tools/dist_test.sh {config_name} {checkpoint} {num_gpus} --out {output_file} --eval top_k_accuracy mean_class_accuracyPour des exemples spécifiques, veuillez vous rendre à la lecture pour chaque algorithme spécifique que nous avons pris en charge.
Si vous utilisez PYSKL dans votre recherche ou si vous souhaitez vous référer aux résultats de base publiés dans le Model Zoo, veuillez utiliser l'entrée Bibtex suivante et l'entrée Bibtex correspondant à l'algorithme spécifique que vous avez utilisé.
@inproceedings { duan2022pyskl ,
title = { Pyskl: Towards good practices for skeleton action recognition } ,
author = { Duan, Haodong and Wang, Jiaqi and Chen, Kai and Lin, Dahua } ,
booktitle = { Proceedings of the 30th ACM International Conference on Multimedia } ,
pages = { 7351--7354 } ,
year = { 2022 }
}Pyskl est un projet OpenSource sous la licence Apache2. Toute contribution de la communauté pour améliorer le PYSKL est appréciée. Pour des contributions importantes (comme soutenir une nouvelle tâche importante et importante), une partie correspondante sera ajoutée à notre rapport technologique mis à jour, tandis que le contributeur sera également ajouté à la liste des auteurs.
Tout utilisateur peut ouvrir un PR pour contribuer à Pyskl. Le PR sera examiné avant d'être fusionné dans la branche principale. Si vous souhaitez ouvrir un grand PR à Pyskl, il vous est recommandé de me joindre (via mon e-mail [email protected]) pour discuter de la conception, ce qui permet d'économiser une grande quantité de temps au stade de révision.
Pour toute question, n'hésitez pas à contacter: [email protected]