واجهة برمجة تطبيقات Gemini مجانية ، ولكن هناك العديد من الأدوات التي تعمل حصريًا مع API Openai.
يوفر هذا المشروع نقطة نهاية متوافقة مع Openai مجانًا.
على الرغم من أنه يعمل في السحابة ، إلا أنه لا يتطلب صيانة الخادم. يمكن نشره بسهولة في مختلف مقدمي الخدمات مجانًا (مع حدود سخية مناسبة للاستخدام الشخصي).
نصيحة
يعد تشغيل نقطة نهاية الوكيل محليًا أيضًا خيارًا ، على الرغم من أنه أكثر ملاءمة لاستخدام التطوير.
ستحتاج إلى مفتاح Google API شخصي.
مهم
حتى لو كنت موجودًا خارج المناطق المدعومة ، فلا يزال من الممكن الحصول على واحدة باستخدام VPN.
نشر المشروع على أحد مقدمي الخدمات ، باستخدام التعليمات أدناه. ستحتاج إلى إعداد حساب هناك.
إذا اخترت "Deploy" ، فسوف يتم توجيهك من خلال عملية نقل المستودع أولاً ، وهو أمر ضروري للتكامل المستمر (CI).
vercel deployvercel devnetlify deploynetlify dev/v1 (على سبيل المثال /v1/chat/completions نقطة نهاية)/edge/v1src/worker.mjs إلى https://workers.cloudflare.com/playground (انظر زر Deploy هناك).wrangler deploywrangler devانظر التفاصيل هنا.
فقط للعقدة: npm install .
ثم npm run start / npm run start:deno / npm run start:bun .
فقط للعقدة: npm install --include=dev
ثم: npm run dev / npm run dev:deno / npm run dev:bun .
إذا قمت بفتح موقعك المنحنى حديثًا في متصفح ، فسترى فقط رسالة 404 Not Found . هذا متوقع ، لأن واجهة برمجة التطبيقات غير مصممة للوصول المباشر إلى المتصفح. للاستفادة منه ، يجب عليك إدخال عنوان API الخاص بك ومفتاح API Gemini في الحقول المقابلة في إعدادات البرنامج الخاصة بك.
ملحوظة
لا تسمح جميع أدوات البرمجيات بتجاوز نقطة نهاية Openai ، ولكن العديد منها تفعل (ومع ذلك قد تكون هذه الإعدادات مخفية في بعض الأحيان).
عادة ، يجب عليك تحديد قاعدة API في هذا التنسيق:
https://my-super-proxy.vercel.app/v1
يمكن تصنيف الحقل ذي الصلة على أنه " Openai Proxy ". قد تحتاج إلى النظر إلى " الإعدادات المتقدمة " أو أقسام مماثلة. بدلاً من ذلك ، يمكن أن يكون في بعض ملفات التكوين (تحقق من الوثائق ذات الصلة للحصول على التفاصيل).
بالنسبة لبعض أدوات سطر الأوامر ، قد تحتاج إلى تعيين متغير بيئة ، على سبيل المثال :
OPENAI_BASE_URL= " https://my-super-proxy.vercel.app/v1 "..أو :
OPENAI_API_BASE= " https://my-super-proxy.vercel.app/v1 " استخدم الطلبات النموذج المحدد إذا بدأ اسمه بـ "Gemini-" أو "Learnlm-" أو "Models/". خلاف ذلك ، تنطبق هذه الإعدادات الافتراضية:
chat/completions : gemini-1.5-pro-latestembeddings : text-embedding-004 مدخلات الرؤية والصوت المدعومة حسب مواصفات Openai. نفذت عبر inlineData .
chat/completions
حاليًا ، تم تنفيذ معظم المعلمات التي تنطبق على كلا واجهات برمجة التطبيقات ، باستثناء مكالمات الوظائف.
messagescontentrolesystem (=> system_instruction ) userassistanttool (v1beta) nametool_callsmodelfrequency_penaltylogit_biaslogprobstop_logprobsmax_tokensn ( candidateCount <8 ، وليس للبث) presence_penaltyresponse_formatseedservice_tierstop : سلسلة | صفيف ( stopSequences [1،5]) streamstream_optionsinclude_usagetemperature (0.0..2.0 لـ Openai ، لكن الجوزاء يدعم ما يصل إلى اللانهاية) top_ptools (v1beta) tool_choice (v1beta) parallel_tool_callsuser completions
embeddings
models