Ein CLI-basierter Python-Paket, das eine Reihe von Funktionen bietet, um End-to-End-ML mit Pytorch durchzuführen.
Flask-API-Vorlage : Richten Sie die grundlegende Pytorch-Projekt-Stürtur und eine leicht optimierbare Kolben-restliche API mit einem einzigen CLI-Befehl ein. Die Bereitstellung Ihrer ML -Modelle war noch nie so einfach.
Testen Sie die ML-API : Sobald Sie Ihre API eingerichtet haben, testen Sie alle API-Endpunkte, um sicherzustellen, dass Sie die erwarteten Ergebnisse erhalten, bevor Sie Ihre API zur Bereitstellung drücken.
Dockerizing : Ein vereinfachtes, einzelnes Dockerisierung für Ihre ML-API.
ML Model Test Suite : Das Paket verfügt über eine integrierte Testsuite, in der Ihre Pytorch-Modelle über eine Reihe von Tests bewertet werden, um nach Fehlern zu suchen, die sonst möglicherweise nicht leicht nachvollziehbar sind.
foo@bar:~ $ torchblaze generate_template --project_name exampleErste CD zum Root -Projektverzeichnis mit App.py -Datei.
foo@bar:~ $ torchblaze generate_docker --image_name example_image foo@bar:~ $ torchblaze run_docker --image_name exampleErste CD zum Root -Projektverzeichnis mit App.py -Datei.
foo@bar:~ $ torchblaze api_testsImportieren Sie das MLTests -Paket
import torchblaze . mltests as mlsVerwenden Sie dann die Vielfalt der Testmethoden, die im MLTests -Paket verfügbar sind. Führen Sie den folgenden Befehl aus, um die Liste der verfügbaren Methoden zu erhalten.
dir ( mls )Verwenden Sie die Hilfemethode, um die Dokumentation auf einen der verfügbaren Tests zu überprüfen:
help ( mls . < method_name > )