yoga pose detection correction
1.0.0
Preferiblemente las imágenes deben ser jpg/jpeg y los nombres de las imágenes deben ser [number].jpg .
./poses_dataset/Images (el nombre puede ser cualquier cosa, pero recomiendo usar el nombre de la pose) y llenarlo con las imágenes de pose../poses_dataset/angles (el nombre de la carpeta debe ser el mismo que se usó en el Paso 1) y coloque una imagen de la pose. La imagen en este directorio se utilizará como ángulos de pose "buenos" (la pose debe ser perfecta), como en, durante la detección en vivo, la pose del usuario se comparará con esta pose para hacer recomendaciones.create_poses_csv.ipynb en el env de virtual. Esto creará un archivo llamado https://github.com/bourbonbourbon/yoga-pose-detection-Correction/blob/main/create_poses_csv.ipynb?short_path=1#l120 (puede nombrarlo lo que sea) que tiene todos los valores X, y, z y visibilidad de todos los puntos landremarios deseados de todos los poses en el ./poses_dataset/Images directorio. El valor de la columna Pose en el archivo CSV generado será un entero.create_angles_csv.ipynb . Esto creará otro CSV llamado https://github.com/bourbonbourbon/yoga-pose-detection-Correction/blob/main/create_angles_csv.ipynb?short_path=1#l104 Tendrá los ángulos de pose 'conocidos'.rfc_model.ipynb que usa el CSV generado en el paso 3 como el archivo de entrada para entrenar/probar los datos sobre. Luego creará un archivo .model llamado https://github.com/bourbonbourbon/yoga-pose-detection-Correction/blob/main/rfc_model.ipynb?short_path=1#l44live_detection.py https://github.com/bourbonbourbon/yoga-pose-detection-Correction/blob/main/live_detection.py#l106 https://github.com/bourbonbourbon/yoga-pose-detection-crection/blob/main/live_detection.py.108 4 y 5.Notas: consulte https://github.com/bourbonbourbon/yoga-pose-detection-Correction/tree/1c9a4e50c00be9a8b677632901e6b8b0c459b6f4 para la estructura del proyecto.
requirements.txt usando pip install -r requirements.txt .python live_detection.py .