flama
v1.9.5
Flamaは、機械学習(ML)に特に焦点を当てたAPIの開発と展開のための標準的なフレームワークを確立するPythonライブラリです。フレームワークの主な目的は、ML APIの展開を途方もなく単純にすることであり、プロセス全体を単一のコードに単純化することです。
ライブラリはスターレットに基づいており、高度にパフォーマンスのあるGraphQL、REST、ML APIの構築をスピードアップするための簡単な学習哲学を提供します。また、非同期および生産対応サービスの開発に理想的なソリューションで構成され、MLモデルの自動展開を提供します。
いくつかの驚くべき特徴:
Component sを使用してエンドポイントで必要なパラメーターを管理するプロセスを容易にするための依存関係インジェクション。 Request 、 Response 、 SessionなどのFlama Asgiオブジェクトは、エンドポイントに注入する準備ができているComponentとして定義されます。Componentはプラグインエコシステムのベースとして、パラメーターとして挿入されたエンドポイントで既に定義されているカスタムを作成したり、使用したりすることができます。docs 、およびSwagger UIおよびRedocエンドポイントを提供します。limit-offsetやpage numberingなど、いくつかの方法を自由に使えるように、いくつかの名前を付けます。 Flamaは、Pythonのすべてのサポートバージョンと完全に互換性があります。利用可能な最新バージョンを使用することをお勧めします。
Flamaのインストール方法に関する詳細な説明については、https://flama.dev/docs/getting-started/installationをご覧ください。
https://flama.dev/docs/getting-started/quickstartにアクセスして、Flamaを始めてください。
https://flama.dev/docs/にアクセスして、完全なドキュメントをご覧ください。
from flama import Flama
app = Flama (
title = "Hello-" ,
version = "1.0" ,
description = "My first API" ,
)
@ app . route ( "/" )
def home ():
"""
tags:
- Salute
summary:
Returns a warming message
description:
This is a more detailed description of the method itself.
Here we can give all the details required and they will appear
automatically in the auto-generated docs.
responses:
200:
description: Warming hello message!
"""
return { "message" : "Hello " }この例は、 Hello APIを構築して実行します。それを実行するには:
flama run examples.hello_flama:app
このプロジェクトは貢献に対して絶対に公開されているので、あなたが素晴らしいアイデアを持っているなら、プルリクエストを送信する前に私たちの貢献ドキュメントを読んでください。