Die Gemini -API ist kostenlos, aber es gibt viele Tools, die ausschließlich mit der OpenAI -API zusammenarbeiten.
Dieses Projekt bietet einen persönlichen OpenAI-kompatiblen Endpunkt kostenlos.
Obwohl es in der Cloud ausgeführt wird, erfordert es keine Serverwartung. Es kann problemlos kostenlos an verschiedene Anbieter eingesetzt werden (mit großzügigen Grenzen, die für den persönlichen Gebrauch geeignet sind).
Tipp
Das Ausführen des Proxy -Endpunkts lokal ist ebenfalls eine Option, die für die Entwicklung der Entwicklung geeigneter ist.
Sie benötigen einen persönlichen Google -API -Schlüssel.
Wichtig
Selbst wenn Sie sich außerhalb der unterstützten Regionen befinden, ist es immer noch möglich, einen mit einem VPN zu erwerben.
Stellen Sie das Projekt mit den folgenden Anweisungen in einem der Anbieter ein. Sie müssen dort ein Konto einrichten.
Wenn Sie sich für "Button-Deploy" entscheiden, werden Sie zuerst durch den Prozess der Abgabe des Repositorys geführt, was für die kontinuierliche Integration (CI) erforderlich ist.
vercel deploy bereitgestellt werdenvercel devnetlify deploy bereitgestellt werdennetlify dev/v1 (EG /v1/chat/completions -Endpunkt)/edge/v1src/worker.mjs auf https://workers.cloudflare.com/playground (siehe Schaltfläche Deploy ) eingesetzt werden.wrangler deploy eingesetzt werdenwrangler devSiehe Details hier.
Nur für Knoten: npm install .
Dann npm run start / npm run start:deno / npm run start:bun .
Nur für Knoten: npm install --include=dev
Dann: npm run dev / npm run dev:deno / npm run dev:bun .
Wenn Sie Ihre neu abgelagerte Site in einem Browser öffnen, sehen Sie nur eine 404 Not Found Nachricht. Dies wird erwartet, da die API nicht für den direkten Browserzugriff ausgelegt ist. Um es zu verwenden, sollten Sie Ihre API -Adresse und Ihre Gemini -API -Schlüssel in die entsprechenden Felder in Ihren Softwareeinstellungen eingeben.
Notiz
Nicht alle Software -Tools ermöglichen das Überschreiben des OpenAI -Endpunkts, aber viele tun dies (diese Einstellungen können jedoch manchmal tief versteckt sein).
Normalerweise sollten Sie die API -Basis in diesem Format angeben:
https://my-super-proxy.vercel.app/v1
Das relevante Feld kann als " OpenAI -Proxy " bezeichnet werden. Möglicherweise müssen Sie unter " erweiterten Einstellungen " oder ähnlichen Abschnitten suchen. Alternativ könnte es in einer Konfigurationsdatei enthalten sein (die entsprechenden Dokumentation für Details finden Sie).
Für einige Befehlszeilen-Tools müssen Sie möglicherweise eine Umgebungsvariable festlegen, z . B.:
OPENAI_BASE_URL= " https://my-super-proxy.vercel.app/v1 "..oder :
OPENAI_API_BASE= " https://my-super-proxy.vercel.app/v1 " Anfragen verwenden das angegebene Modell, wenn sein Name mit "Gemini-", "Learnlm-" oder "Models/" beginnt. Andernfalls gelten diese Standardeinstellungen:
chat/completions : gemini-1.5-pro-latestembeddings : text-embedding-004 Seh- und Audioeingabe, die gemäß den OpenAI -Spezifikationen unterstützt werden. Implementiert über inlineData .
chat/completions
Derzeit wurden die meisten Parameter, die für beide APIs anwendbar sind, mit Ausnahme von Funktionsaufrufen implementiert.
messagescontentrolesystem (=> system_instruction ) userassistanttool (V1Beta) nametool_callsmodelfrequency_penaltylogit_biaslogprobstop_logprobsmax_tokensn ( candidateCount <8, nicht zum Streaming) presence_penaltyresponse_formatseedservice_tierstop : String | Array ( stopSequences [1,5]) streamstream_optionsinclude_usagetemperature (0,0..2.0 für OpenAI, aber Gemini stützt bis zur Unendlichkeit) top_ptools (V1Beta) tool_choice (v1beta) parallel_tool_callsuser completions
embeddings
models