Flama هي مكتبة Python التي تنشئ إطارًا قياسيًا لتطوير ونشر واجهات برمجة التطبيقات مع التركيز بشكل خاص على التعلم الآلي (ML). الهدف الرئيسي من هذا الإطار هو جعل نشر واجهات برمجة تطبيقات ML بسيطة يبعث على السخرية ، مما يؤدي إلى تبسيط (عند الإمكان) العملية بأكملها إلى سطر واحد من التعليمات البرمجية.
تعتمد المكتبة على Starlette ، وتوفر فلسفة سهلة التعلم لتسريع بناء GraphQL و REST و ML. علاوة على ذلك ، فإنه يشتمل على حل مثالي لتطوير الخدمات غير المتزامنة والاستعداد للإنتاج ، مما يوفر نشرًا تلقائيًا لنماذج ML.
بعض الخصائص الرائعة:
Component . يتم تعريف كائنات Flama ASGI مثل Request Response Session وما إلى ذلك على أنها Component جاهز للحقن في نقاط النهاية الخاصة بك.Component S كقاعدة للنظام الإيكولوجي المكون الإضافي ، مما يتيح لك إنشاء مخصص أو استخدام تلك المحددة بالفعل في نقاط النهاية الخاصة بك ، تم حقنها كمعلمات.docs تم إنشاؤها التلقائي ، وتوفر واجهة مستخدم Swagger و Redoc.limit-offset page numbering ، على سبيل المثال لا الحصر. Flama متوافق تمامًا مع جميع الإصدارات المدعومة من Python. نوصيك باستخدام أحدث إصدار متاح.
للحصول على شرح مفصل حول كيفية تثبيت فلاما زيارة: https://flama.dev/docs/getting-started/installation.
تفضل بزيارة https://flama.dev/docs/getting-started/quickstart للبدء مع فلاما.
تفضل بزيارة https://flama.dev/docs/ لعرض الوثائق الكاملة.
from flama import Flama
app = Flama (
title = "Hello-" ,
version = "1.0" ,
description = "My first API" ,
)
@ app . route ( "/" )
def home ():
"""
tags:
- Salute
summary:
Returns a warming message
description:
This is a more detailed description of the method itself.
Here we can give all the details required and they will appear
automatically in the auto-generated docs.
responses:
200:
description: Warming hello message!
"""
return { "message" : "Hello " } هذا المثال سيبني وتشغيل API Hello . لتشغيله:
flama run examples.hello_flama:app
هذا المشروع مفتوح تمامًا للمساهمات ، لذا إذا كان لديك فكرة لطيفة ، فيرجى قراءة مستنداتنا المساهمة قبل تقديم طلب سحب.