双子座API是免费的,但是有许多与OpenAI API合作的工具。
该项目免费提供个人与OpenAi兼容的端点。
尽管它在云中运行,但不需要服务器维护。它可以轻松地免费部署到各个提供商(具有适合个人使用的宽敞限制)。
提示
在本地运行代理端点也是一个选项,尽管它更适合开发使用。
您将需要一个个人的Google API密钥。
重要的
即使您位于受支持区域之外,仍然可以使用VPN获取该区域。
使用以下说明将项目部署到一个提供商之一。您需要在那里设置一个帐户。
如果您选择“按钮数据”,则首先要引导您通过订阅存储库的过程,这对于连续集成(CI)是必需的。
vercel deployvercel devnetlify deploynetlify dev/v1 (例如/v1/chat/completions终点)/edge/v1src/worker.mjs的内容部署到https://workers.cloudflare.com/playground(请参阅where Deploy按钮)。wrangler deploy部署wrangler dev请参阅此处的详细信息。
仅适用于节点: npm install 。
然后npm run start / npm run start:deno / npm run start:bun 。
仅适用于节点: npm install --include=dev
然后: npm run dev / npm run dev:deno / npm run dev:bun 。
如果您在浏览器中打开新部署的网站,则只会看到404 Not Found消息。这是可以预期的,因为API不是为直接浏览器访问而设计的。要使用它,您应该在软件设置中输入API地址和GEMINI API键。
笔记
并非所有的软件工具都允许覆盖OpenAI端点,但是许多软件工具都可以(但是这些设置有时可以被深层隐藏)。
通常,您应以这种格式指定API基础:
https://my-super-proxy.vercel.app/v1
相关字段可以标记为“ Openai代理”。您可能需要在“高级设置”或类似部分下查看。另外,它可以在某些配置文件中(查看相关文档以获取详细信息)。
对于某些命令行工具,您可能需要设置一个环境变量,例如:
OPENAI_BASE_URL= " https://my-super-proxy.vercel.app/v1 "..或者:
OPENAI_API_BASE= " https://my-super-proxy.vercel.app/v1 " 请求使用指定的模型,如果其名称以“ gemini-”开头,“ Learnlm-”或“ Models/”。否则,这些默认值适用:
chat/completions : gemini-1.5-pro-latestembeddings : text-embedding-004 根据OpenAI规格支持的视觉和音频输入。通过inlineData实施。
chat/completions
当前,除功能调用外,已实现了两个适用于两个API的参数。
messagescontentrolesystem (=> system_instruction ) userassistanttool (v1beta) nametool_callsmodelfrequency_penaltylogit_biaslogprobstop_logprobsmax_tokensn ( candidateCount <8,不是用于流式传输) presence_penaltyresponse_formatseedservice_tierstop :字符串|阵列( stopSequences [1,5]) streamstream_optionsinclude_usagetemperature (Openai的0.0..2.0,但Gemini支持无穷大) top_ptools (v1beta) tool_choice (v1beta) parallel_tool_callsuser completions
embeddings
models