Flama est une bibliothèque Python qui établit un cadre standard pour le développement et le déploiement des API avec un accent particulier sur l'apprentissage automatique (ML). L'objectif principal du cadre est de rendre ridiculement simple le déploiement des API ML, simplifiant (si possible) l'ensemble du processus en une seule ligne de code.
La bibliothèque s'appuie sur Starlette et fournit une philosophie facile à apprendre pour accélérer la construction d'API GraphQL, REST et ML hautement performants. En outre, il comprend une solution idéale pour le développement de services asynchrones et prêts pour la production, offrant un déploiement automatique pour les modèles ML.
Quelques caractéristiques remarquables:
Component s. Flama ASGI Objets comme Request , Response , Session , etc. sont définis comme Component prêts à être injectés dans vos points de terminaison.Component sont la base de l'écosystème du plugin, vous permettant de créer des personnalités ou des utilisation de celles déjà définies dans vos points de terminaison, injectés sous forme de paramètres.docs généré automatiquement et fournit une interface utilisateur de fanfaronnade et des points de terminaison Redoc.limit-offset et page numbering , pour n'en nommer que quelques-unes. Flama est entièrement compatible avec toutes les versions prises en charge de Python. Nous vous recommandons d'utiliser la dernière version disponible.
Pour une explication détaillée sur la façon d'installer un talent Visite: https://flama.dev/docs/getting-started/installation.
Visitez https://flama.dev/docs/getting-started/quickstart pour démarrer avec un talent.
Visitez https://flama.dev/docs/ pour afficher la documentation complète.
from flama import Flama
app = Flama (
title = "Hello-" ,
version = "1.0" ,
description = "My first API" ,
)
@ app . route ( "/" )
def home ():
"""
tags:
- Salute
summary:
Returns a warming message
description:
This is a more detailed description of the method itself.
Here we can give all the details required and they will appear
automatically in the auto-generated docs.
responses:
200:
description: Warming hello message!
"""
return { "message" : "Hello " } Cet exemple créera et exécutera une API Hello . Pour l'exécuter:
flama run examples.hello_flama:app
Ce projet est absolument ouvert aux contributions, donc si vous avez une bonne idée, veuillez lire nos documents contributifs avant de soumettre une demande de traction.