L'API Gemini est gratuite, mais il existe de nombreux outils qui fonctionnent exclusivement avec l'API OpenAI.
Ce projet fournit gratuitement un point de terminaison personnel compatible OpenAI.
Bien qu'il fonctionne dans le cloud, il ne nécessite pas de maintenance du serveur. Il peut être facilement déployé sur divers fournisseurs gratuitement (avec des limites généreuses adaptées à un usage personnel).
Conseil
L'exécution du point de terminaison proxy localement est également une option, bien qu'elle soit plus appropriée pour l'utilisation du développement.
Vous aurez besoin d'une clé API Google personnelle.
Important
Même si vous êtes situé en dehors des régions prises en charge, il est toujours possible d'en acquérir un en utilisant un VPN.
Déployez le projet à l'un des fournisseurs, en utilisant les instructions ci-dessous. Vous devrez y installer un compte.
Si vous optez pour le «déploiement de bouton», vous serez guidé à travers le processus de suppression du référentiel en premier, ce qui est nécessaire pour l'intégration continue (IC).
vercel deployvercel devnetlify deploynetlify dev/v1 (par exemple /v1/chat/completions du point de terminaison)/edge/v1src/worker.mjs à https://workers.cloudflare.com/playground (voir le bouton Deploy ).wrangler deploywrangler devVoir les détails ici.
Uniquement pour le nœud: npm install .
Puis npm run start / npm run start:deno / npm run start:bun .
Uniquement pour le nœud: npm install --include=dev
Ensuite: npm run dev / npm run dev:deno / npm run dev:bun .
Si vous ouvrez votre site nouvellement déployé dans un navigateur, vous ne verrez qu'un message 404 Not Found . Cela est prévu, car l'API n'est pas conçue pour l'accès direct au navigateur. Pour l'utiliser, vous devez saisir votre adresse API et votre clé API Gemini dans les champs correspondants de vos paramètres logiciels.
Note
Tous les outils logiciels ne permettent pas de remplacer le point de terminaison OpenAI, mais beaucoup le font (mais ces paramètres peuvent parfois être profondément cachés).
En règle générale, vous devez spécifier la base d'API dans ce format:
https://my-super-proxy.vercel.app/v1
Le champ pertinent peut être étiqueté comme " proxy openai ". Vous devrez peut-être regarder sous des " paramètres avancés " ou des sections similaires. Alternativement, il pourrait être dans un fichier de configuration (consultez la documentation pertinente pour plus de détails).
Pour certains outils de ligne de commande, vous devrez peut-être définir une variable d'environnement, par exemple :
OPENAI_BASE_URL= " https://my-super-proxy.vercel.app/v1 "..ou :
OPENAI_API_BASE= " https://my-super-proxy.vercel.app/v1 " Les demandes utilisent le modèle spécifié si son nom commence par "Gemini-", "Learnlm-" ou "Models /". Sinon, ces défauts s'appliquent:
chat/completions : gemini-1.5-pro-latestembeddings : text-embedding-004 Vision et entrée audio prise en charge selon les spécifications OpenAI. Implémenté via inlineData .
chat/completions
Actuellement, la plupart des paramètres applicables aux deux API ont été implémentés, à l'exception des appels de fonction.
messagescontentrolesystem (=> system_instruction ) userassistanttool (v1beta) nametool_callsmodelfrequency_penaltylogit_biaslogprobstop_logprobsmax_tokensn ( candidateCount <8, pas pour le streaming) presence_penaltyresponse_formatseedservice_tierstop : String | Array ( stopSequences [1,5]) streamstream_optionsinclude_usagetemperature (0,0..2.0 pour OpenAI, mais les Gémeaux prennent en charge jusqu'à l'infini) top_ptools (v1beta) tool_choice (V1BETA) parallel_tool_callsuser completions
embeddings
models