[ Bericht ]
PYSKL ist eine Toolbox, die sich auf die Aktionserkennung basierend auf den Daten mit Py -Torch konzentriert. Verschiedene Algorithmen werden für die Aktionserkennung auf Skelettbasis unterstützt. Wir erstellen dieses Projekt basierend auf dem OpenSource -Projekt MMACTION2.
Dieses Repo ist die offizielle Implementierung von POSECONV3D und STGCN ++.


Links: Ergebnisse der Skelett-Basis-Aktionserkennung von NTU-RGB+D-120; Recht
--compile für Trainings-/Testskripte und mit torch.__version__ >= 'v2.0.0' erkannt, verwendet torch.compile , um das Modell vor dem Training/Test zu kompilieren. Experimentelles Merkmal, absolut keine Leistungsgarantie ( 2023-03-16 ).git clone https://github.com/kennymckormick/pyskl.git
cd pyskl
# This command runs well with conda 22.9.0, if you are running an early conda version and got some errors, try to update your conda first
conda env create -f pyskl.yaml
conda activate pyskl
pip install -e . Überprüfen Sie Demo.md.
Wir stellen HRNET 2D -Skelette für jeden Datensatz an, den wir unterstützt haben, und Kinect 3D -Skelette für den Datensatz Nturgb+D und Nturgb+D 120. Um die Annotationen des menschlichen Skeletts zu erhalten, können Sie:
ntu60_3danno.pkl und ntu120_3danno.pkl . Ausführliche Anweisungen finden Sie im Datendokument.Sie können Vis_Skeletton verwenden, um die bereitgestellten Skelettdaten zu visualisieren.
Sie können folgende Befehle zum Training und Test verwenden. Grundsätzlich unterstützen wir verteilte Schulungen auf einem einzelnen Server mit mehreren GPUs.
# Training
bash tools/dist_train.sh {config_name} {num_gpus} {other_options}
# Testing
bash tools/dist_test.sh {config_name} {checkpoint} {num_gpus} --out {output_file} --eval top_k_accuracy mean_class_accuracyFür bestimmte Beispiele gehen Sie für jeden von uns unterstützten spezifischen Algorithmus zum Readme.
Wenn Sie PYSKL in Ihrer Forschung verwenden oder sich auf die im Modellzoo veröffentlichten Baseline -Ergebnisse beziehen möchten, verwenden Sie bitte den folgenden Bibtex -Eintrag und den Bibtex -Eintrag, der dem spezifischen Algorithmus entspricht, den Sie verwendet haben.
@inproceedings { duan2022pyskl ,
title = { Pyskl: Towards good practices for skeleton action recognition } ,
author = { Duan, Haodong and Wang, Jiaqi and Chen, Kai and Lin, Dahua } ,
booktitle = { Proceedings of the 30th ACM International Conference on Multimedia } ,
pages = { 7351--7354 } ,
year = { 2022 }
}Pyskl ist ein OpenSource -Projekt unter der Apache2 -Lizenz. Jeder Beitrag der Gemeinschaft zur Verbesserung von Pyskl wird geschätzt. Für signifikante Beiträge (wie die Unterstützung einer neuartigen und wichtigen Aufgabe) wird unser aktualisierter Tech -Bericht ein entsprechender Teil hinzugefügt, während der Mitarbeiter auch der Autor -Liste hinzugefügt wird.
Jeder Benutzer kann einen PR öffnen, um zu Pyskl beizutragen. Die PR wird überprüft, bevor er in den Master -Zweig zusammengefasst wird. Wenn Sie eine große PR in Pyskl eröffnen möchten, werden Sie empfohlen, mich zunächst zu erreichen (per E -Mail [email protected]), um das Design zu besprechen, das dazu beiträgt, in der Überprüfungsstufe große Zeit zu sparen.
Für Fragen können Sie sich gerne wenden: [email protected]