Un package Python basé sur CLI qui fournit une suite de fonctionnalités pour effectuer des ML de bout en bout à l'aide de Pytorch.
Modèle FLASK-API : Configurez la Sturcture du projet Pytorch de base et une API de restauration facilement modifiable avec une seule commande CLI. Le déploiement de vos modèles ML n'a jamais été aussi facile.
Testez API ML : une fois que vous avez configuré votre API, testez tous les points d'extrémité API pour vous assurer d'obtenir les résultats attendus avant de pousser votre API au déploiement.
Dockerising : un dockage simplifié et monochand et facile pour votre API ML.
Suite de test de modèle ML : Le package est livré avec une suite de tests intégrée qui évalue vos modèles Pytorch par rapport à un ensemble de tests pour rechercher toutes les erreurs qui autrement pourraient ne pas être traçables facilement.
foo@bar:~ $ torchblaze generate_template --project_name examplePremier CD dans le répertoire du projet racine contenant un fichier app.py.
foo@bar:~ $ torchblaze generate_docker --image_name example_image foo@bar:~ $ torchblaze run_docker --image_name examplePremier CD dans le répertoire du projet racine contenant un fichier app.py.
foo@bar:~ $ torchblaze api_testsImporter le package Mltests
import torchblaze . mltests as mlsUtilisez ensuite la variété des méthodes de test disponibles dans le package MLTests. Exécutez la commande suivante pour obtenir la liste des méthodes disponibles.
dir ( mls )Pour vérifier la documentation de l'un des tests disponibles, utilisez la méthode d'aide:
help ( mls . < method_name > )