yoga pose detection correction
1.0.0
Vorzugsweise sollten die Bilder JPG/JPEG sein und die Bildnamen sollten [number].jpg sein.
./poses_dataset/Images (der Name kann alles sein, aber ich empfehle, den Namen der Pose zu verwenden) und bevölkern Sie es mit den Pose -Bildern../poses_dataset/angles (Ordnername sollte übereinstimmen wie in Schritt 1) und geben Sie ein Bild der Pose ein. Das Bild in diesem Verzeichnis wird als "bekannte gute" Posenwinkel verwendet (die Pose sollte perfekt sein), wie bei der Live -Erkennung wird die Pose des Benutzers mit dieser Pose verglichen, um Empfehlungen zu erhalten.create_poses_csv.ipynb im virtuellen Env. Dies erstellt eine Datei mit dem Namen https://github.com/bourbonbourbon/yoga-pose-dection-correction/blob/main/create_poses_csv.ipynb?short_path=1#l120 (Sie können es auch immer nennen), die alle zu den gewünschten Landmark-Punkten aller zu den gewünschten Landmark-Punkten haben ./poses_dataset/Images Der Pose -Spaltenwert in der generierten CSV -Datei ist eine Ganzzahl.create_angles_csv.ipynb . Dadurch wird ein weiterer CSV namens https://github.com/bourbonbourbon/yoga-pose-dektection-correction/blob/main/create_angles_csv.ipynb?short_path=1#l104 IT die "bekannten guten" -Pose-Winkel haben.rfc_model.ipynb aus, das den in Schritt 3 generierten CSV als Eingabedatei zum Training/Testen der Daten verwendet. Anschließend wird eine .model -Datei namens https://github.com/bourbonbourbon/yoga-pose-dection-correction/blob/main/rfc_model.ipynb?short_path=1#l44 erstelltlive_detection.py https://github.com/bourbonbourbon/yoga-pose-dection-crection/blob/main/live_detction.py#l106 https://github.com/bourbourbon/yoga-pose-dection-correction/blob/main/matrektion.pose-dection-correction/blob/main/matrektion- Erstellt in den Schritten 4 und 5.Hinweise: Siehe https://github.com/bourbonbourbon/yoga-pose-detction-correction/tree/1c9a4e50c00be9a8b677632901e6b8b0c459b6f4 für die Projektstruktur.
pip install -r requirements.txt Sie alle Bibliotheken von requirements.txt .python live_detection.py aus.