flama
v1.9.5
Flama는 Python Library로, 기계 학습 (ML)에 특별한 초점을 맞춘 API의 개발 및 배치를위한 표준 프레임 워크를 설정합니다. 프레임 워크의 주요 목표는 ML API의 배포를 엄청나게 간단하게하여 전체 프로세스를 단일 한 줄의 코드로 단순화하는 것입니다.
이 라이브러리는 Starlette를 기반으로하며 학습하기 쉬운 철학을 제공하여 고도로 성능이있는 GraphQL, REST 및 ML API의 구축 속도를 높입니다. 또한 비동기 및 생산 준비 서비스 개발을위한 이상적인 솔루션으로 구성되어 ML 모델을위한 자동 배포를 제공합니다.
몇 가지 놀라운 특성 :
Component 요소를 사용하여 엔드 포인트에 필요한 매개 변수를 쉽게 관리하는 프로세스를 쉽게 만들 수 있습니다. Flama ASGI Request , Response , Session 등과 같은 개체는 엔드 포인트에 주입 할 준비가 된 Component 요소로 정의됩니다.Component 요소는 플러그인 생태계의 기본으로서, 매개 변수로 주입 된 엔드 포인트에 이미 정의 된 내용을 사용하거나 사용할 수 있도록합니다.docs 및 Swagger UI 및 Redoc Endpoints를 제공합니다.limit-offset 및 page numbering 와 같은 여러 가지 방법으로 Pagination의 자동 처리. Flama는 지원되는 모든 버전의 Python과 완전히 호환됩니다. 사용 가능한 최신 버전을 사용하는 것이 좋습니다.
플라마를 설치하는 방법에 대한 자세한 설명은 https://flama.dev/docs/getting-started/installation을 방문하십시오.
플라마를 시작하려면 https://flama.dev/docs/getting-started/quickstart를 방문하십시오.
전체 문서를 보려면 https://flama.dev/docs/를 방문하십시오.
from flama import Flama
app = Flama (
title = "Hello-" ,
version = "1.0" ,
description = "My first API" ,
)
@ app . route ( "/" )
def home ():
"""
tags:
- Salute
summary:
Returns a warming message
description:
This is a more detailed description of the method itself.
Here we can give all the details required and they will appear
automatically in the auto-generated docs.
responses:
200:
description: Warming hello message!
"""
return { "message" : "Hello " } 이 예제는 Hello API를 구축하고 실행합니다. 그것을 실행하려면 :
flama run examples.hello_flama:app
이 프로젝트는 기부금에 절대적으로 개방되어 있으므로 좋은 아이디어가있는 경우 풀 요청을 제출하기 전에 기여 문서를 읽으십시오.