خدمة ويب مريحة تم إنشاؤها لتوفير واجهة برمجة تطبيقات بسيطة لإنشاء نص باستخدام نماذج GPT المختلفة على أساس مزودي مختلفين. سواء كنت ترغب في دمج إكمال الدردشة في تطبيقك أو استكشاف إمكانيات نماذج GPT المختلفة ، فقد غطي هذا المشروع. يعتمد على xtekky/gpt4free.
مثال على تطبيق لعرض عرض تجريبي لكيفية استخدام واجهة برمجة التطبيقات هذه. يقوم التطبيق أدناه بتحويل مقطع فيديو على YouTube إلى مدونة Markdown التي يمكن تحريرها.
# Clone the repository
git clone https://github.com/nagarajpandith/GPTGateway.git
# Navigate to the project directory
cd GPTGateway
# Create a virtual environment
python3 -m venv venv
# Activate the virtual environment
source venv/bin/activate
# Install the required packages
pip3 install -r requirements.txtإنشاء ملف .env وملء api_key var.
python3 app.pycurl curl -X POST -H " Content-Type: application/json " -d ' {"content": "YOUR_PROMPT", "api_key":"API_KEY_HERE", "provider": "PROVIDER_NAME", "stream": false} ' http://127.0.0.1:5000/chat_completion{
"content" : " YOUR_PROMPT " ,
"api_key" : " API_KEY_HERE " ,
"provider" : " PROVIDER_NAME " ,
"stream" : false
}ملحوظة
يمكنك استضافة واجهة برمجة التطبيقات هذه بنفسك ، ولكن إذا كنت ترغب في استخدام API المستضافة بالفعل ، فهو مباشر على https://gptgateway.onrender.com.
| نقطة النهاية | وصف | طريقة | مثال الجسم |
|---|---|---|---|
/chat_completion | يولد النص باستخدام النموذج على أساس المزود | بريد | {"content": "YOUR_PROMPT", "api_key": "API_KEY_HERE", "provider": "PROVIDER_NAME", "stream": false} |
/working_providers | يسترجع قائمة من مقدمي الخدمات العاملة | يحصل | {} |
نصيحة
معلمات المزود والبث اختياري. إذا لم يتم توفيره ، يتم تعيين الموفر الافتراضي على "Bing" ويتم ضبط الدفق الافتراضي على TRUE. إذا تم ضبط الدفق على خطأ ، فستكون الاستجابة بتنسيق الإخراج النهائي المباشر.
آخر اختبار في 9-12-2023 باستخدام "دفق" = خطأ
ملحوظة
لمعرفة مقدمي الخدمات ونماذجهم.
قيم الحالة
مهم
إذا لم يكن أحد المزود يعمل ، فربما يكون ذلك لأنه يحتاج إلى args خاصة مثل Auth = "ملف تعريف الارتباط" أو "JWT" أو فشل WebDriver في الاتصال ، حيث أن تجريف الويب مطلوب لمعظم مقدمي الخدمات هنا أو حظر عنوان IP وما إلى ذلك ، لا تعتبر النتائج أدناه مصدرًا نهائيًا للحقيقة. لاختباره بنفسك ، قم بتشغيل برنامج python3 test.py
| مزود | محلي/مستضاف/كلاهما | متوسط وقت الاستجابة |
|---|---|---|
| Aitianhuspace | لا أحد | 0.0000 |
| Aichatonline | كلاهما | 1.7414 |
| بارد | لا أحد | 0.0000 |
| بنغ | كلاهما | 7.5283 |
| قاعدة chatbase | كلاهما | 11.0944 |
| شاتفوراي | لا أحد | 0.0000 |
| chatgpt4online | لا أحد | 0.0000 |
| Chatgptai | كلاهما | 4.0048 |
| chatgptnext | كلاهما | 1.1684 |
| DeepInfra | كلاهما | 2.9104 |
| مزيف | لا أحد | 0.0000 |
| gptalk | لا أحد | 0.0000 |
| geekgpt | استضاف | 2.6676 |
| gptchatly | لا أحد | 0.0000 |
| gptforlove | لا أحد | 0.0000 |
| GPTGO | محلي | 1.0809 |
| gpttalkru | كلاهما | 1.3263 |
| Hashnode | كلاهما | 14.0748 |
| Huggingchat | لا أحد | 0.0000 |
| كوالا | محلي | 2.3503 |
| liaobots | لا أحد | 0.0000 |
| Llama2 | لا أحد | 0.0000 |
| myshell | محلي | 9.0187 |
| OnlineGPT | كلاهما | 2.3497 |
| Openaichat | لا أحد | 0.0000 |
| الحيرة | محلي | 10.8567 |
| فيند | كلاهما | 0.4872 |
| باي | محلي | 8.9026 |
| بو | لا أحد | 0.0000 |
| رايكاست | لا أحد | 0.0000 |
| RetryProvider | لا أحد | 0.0000 |
| Talkai | محلي | 13.3812 |
| TheB | لا أحد | 0.0000 |
| thebapi | لا أحد | 0.0000 |
| أنت | محلي | 1.6147 |
| yqcloud | لا أحد | 0.0000 |
لقد اختبرت هؤلاء مقدمي الخدمات يدويًا وأجدهم الأكثر موثوقية وسريعة.
| مزود | محلي/مستضاف/كلاهما | متوسط وقت الاستجابة |
|---|---|---|
| gpttalkru | كلاهما | 2-3S |
| geekgpt | كلاهما | 6-8S |
| Chatgptai | كلاهما | 5s |
| chatgptnext | كلاهما | 7-8S |
| Aichatonline | محلي | 4S |
| gptchatly | محلي | 4-5S |
| OnlineGPT | محلي | 4S |
| بنغ | كلاهما | 15-20s |
| قاعدة chatbase | كلاهما | 12-13S |
| كوالا | محلي | 4S |
| GPTGO | محلي | 12S |
| أنت | محلي | 10s |
| myshell | محلي | 11S |
| باي | محلي | 11S |
| الحيرة | محلي | 14S |
| Hashnode | كلاهما | 18S |
| Talkai | محلي | 20s |
| DeepInfra | كلاهما | 31-47S |
| TheB | محلي | 12S |
مهم
مجرد مشروع هواية لتمرير الوقت ، ليس لديك نوايا لمزيد من التطوير لأنه مجرد غلاف بسيط حول مشروع GPT4Free. أنا شخصياً لا أوصي باستخدام مقدمي الخدمات للإنتاج ، فقد ينزلون في أي لحظة ولا يمكن الاعتماد عليهم إلى حد كبير. بدلاً من ذلك ، قم باستضافة أي من المصدر المفتوح LLMS بنفسك. سيكون خياري الشخصي Mistral-7B ، والذي يؤدي أفضل بكثير من نموذج LLAMA2-13B الخاص بـ Meta. قائمة الخروج من LLMs Open Source هنا و Arena المتصدرين هنا (صوت من قبل الجمهور).