Flama ist eine Python -Bibliothek, die einen Standard -Rahmen für die Entwicklung und Bereitstellung von APIs mit besonderem Fokus auf maschinelles Lernen (ML) festlegt. Das Hauptziel des Frameworks ist es, die Bereitstellung von ML -APIs lächerlich einfach zu gestalten und den gesamten Prozess (wenn möglich) zu einer einzelnen Codezeile zu vereinfachen.
Die Bibliothek baut auf Starlette auf und bietet eine leicht zu lernende Philosophie, um das Gebäude von hochdarstellenden GraphQL-, Rest- und ML-APIs zu beschleunigen. Außerdem umfasst es eine ideale Lösung für die Entwicklung von asynchronen und produktionsbereiten Diensten, die eine automatische Bereitstellung für ML-Modelle anbieten.
Einige bemerkenswerte Eigenschaften:
Component zu erleichtern. Flama -ASGI -Objekte wie Request , Response , Session usw. werden als Component definiert, die in Ihre Endpunkte injiziert werden können.Component S als Basis des Plugin -Ökosystems, mit dem Sie benutzerdefinierte erstellen oder die bereits in Ihren Endpunkten definierten verwenden können, die als Parameter injiziert werden.docs und bietet eine Sprist -UI- und Redoc -Endpunkte.limit-offset und page numbering , um nur einige zu nennen. Flama ist mit allen unterstützten Versionen von Python vollständig kompatibel. Wir empfehlen Ihnen, die neueste verfügbare Version zu verwenden.
Eine ausführliche Erklärung zur Installation von Flama besuchen Sie: https://flama.dev/docs/getting-started/installation.
Besuchen Sie https://flama.dev/docs/getting-started/quickstart, um mit Flama zu beginnen.
Besuchen Sie https://flama.dev/docs/, um die vollständige Dokumentation anzuzeigen.
from flama import Flama
app = Flama (
title = "Hello-" ,
version = "1.0" ,
description = "My first API" ,
)
@ app . route ( "/" )
def home ():
"""
tags:
- Salute
summary:
Returns a warming message
description:
This is a more detailed description of the method itself.
Here we can give all the details required and they will appear
automatically in the auto-generated docs.
responses:
200:
description: Warming hello message!
"""
return { "message" : "Hello " } In diesem Beispiel wird eine Hello -API erstellt und ausgeführt. Um es auszuführen:
flama run examples.hello_flama:app
Dieses Projekt ist absolut offen für Beiträge. Wenn Sie also eine nette Idee haben, lesen Sie bitte unsere Beitragsdokumente, bevor Sie eine Pull -Anfrage einreichen .