Flama เป็นห้องสมุด Python ที่กำหนดกรอบมาตรฐานสำหรับการพัฒนาและการปรับใช้ APIs โดยมุ่งเน้นเป็นพิเศษในการเรียนรู้ของเครื่อง (ML) เป้าหมายหลักของเฟรมเวิร์กคือการปรับใช้ ML API อย่างง่ายดายอย่างง่ายทำให้กระบวนการทั้งหมดเป็นไปได้ง่ายขึ้นกระบวนการทั้งหมดเป็นรหัสบรรทัดเดียว
ห้องสมุดสร้างขึ้นบน Starlette และให้ปรัชญาที่ง่ายต่อการเรียนรู้เพื่อเพิ่มความเร็วในการสร้าง GraphQL ที่มีประสิทธิภาพสูง REST และ ML API นอกจากนี้ยังมีโซลูชันที่เหมาะสำหรับการพัฒนาบริการแบบอะซิงโครนัสและพร้อมการผลิตซึ่งนำเสนอการปรับใช้อัตโนมัติสำหรับรุ่น ML
ลักษณะที่น่าทึ่งบางอย่าง:
Component s วัตถุ Flama ASGI เช่น Request Response Session และอื่น ๆ ถูกกำหนดให้เป็น Component S พร้อมที่จะถูกฉีดในจุดสิ้นสุดของคุณComponent S เป็นฐานของระบบนิเวศปลั๊กอินช่วยให้คุณสร้างแบบกำหนดเองหรือใช้งานที่กำหนดไว้ในจุดสิ้นสุดของคุณแล้วฉีดเป็นพารามิเตอร์docs ที่สร้างขึ้นอัตโนมัติและให้จุดสิ้นสุด UI และ redoc redoclimit-offset และ page numbering เพื่อตั้งชื่อไม่กี่ Flama เข้ากันได้อย่างเต็มที่กับ Python รุ่นที่รองรับทั้งหมด เราขอแนะนำให้คุณใช้เวอร์ชันล่าสุดที่มีอยู่
สำหรับคำอธิบายโดยละเอียดเกี่ยวกับวิธีการติดตั้งการเยี่ยมชมฟลามา: https://flama.dev/docs/getting-started/installation
เยี่ยมชม https://flama.dev/docs/getting-started/quickstart เพื่อเริ่มต้นกับ Flama
เยี่ยมชม https://flama.dev/docs/ เพื่อดูเอกสารฉบับเต็ม
from flama import Flama
app = Flama (
title = "Hello-" ,
version = "1.0" ,
description = "My first API" ,
)
@ app . route ( "/" )
def home ():
"""
tags:
- Salute
summary:
Returns a warming message
description:
This is a more detailed description of the method itself.
Here we can give all the details required and they will appear
automatically in the auto-generated docs.
responses:
200:
description: Warming hello message!
"""
return { "message" : "Hello " } ตัวอย่างนี้จะสร้างและเรียกใช้ Hello API เพื่อเรียกใช้:
flama run examples.hello_flama:app
โครงการนี้เปิดให้มีการมีส่วนร่วมอย่างแน่นอนดังนั้นหากคุณมีความคิดที่ดีโปรดอ่านเอกสารที่มีส่วนร่วมของเรา ก่อนที่จะส่ง คำขอดึง