雙子座API是免費的,但是有許多與OpenAI API合作的工具。
該項目免費提供個人與OpenAi兼容的端點。
儘管它在雲中運行,但不需要服務器維護。它可以輕鬆地免費部署到各個提供商(具有適合個人使用的寬敞限制)。
提示
在本地運行代理端點也是一個選項,儘管它更適合開發使用。
您將需要一個個人的Google API密鑰。
重要的
即使您位於受支持區域之外,仍然可以使用VPN獲取該區域。
使用以下說明將項目部署到一個提供商之一。您需要在那裡設置一個帳戶。
如果您選擇“按鈕數據”,則首先要引導您通過訂閱存儲庫的過程,這對於連續集成(CI)是必需的。
vercel deployvercel devnetlify deploynetlify dev/v1 (例如/v1/chat/completions終點)/edge/v1src/worker.mjs的內容部署到https://workers.cloudflare.com/playground(請參閱where Deploy按鈕)。wrangler deploy部署wrangler dev請參閱此處的詳細信息。
僅適用於節點: npm install 。
然後npm run start / npm run start:deno / npm run start:bun 。
僅適用於節點: npm install --include=dev
然後: npm run dev / npm run dev:deno / npm run dev:bun 。
如果您在瀏覽器中打開新部署的網站,則只會看到404 Not Found消息。這是可以預期的,因為API不是為直接瀏覽器訪問而設計的。要使用它,您應該在軟件設置中輸入API地址和GEMINI API鍵。
筆記
並非所有的軟件工具都允許覆蓋OpenAI端點,但是許多軟件工具都可以(但是這些設置有時可以被深層隱藏)。
通常,您應以這種格式指定API基礎:
https://my-super-proxy.vercel.app/v1
相關字段可以標記為“ Openai代理”。您可能需要在“高級設置”或類似部分下查看。另外,它可以在某些配置文件中(查看相關文檔以獲取詳細信息)。
對於某些命令行工具,您可能需要設置一個環境變量,例如:
OPENAI_BASE_URL= " https://my-super-proxy.vercel.app/v1 "..或者:
OPENAI_API_BASE= " https://my-super-proxy.vercel.app/v1 " 請求使用指定的模型,如果其名稱以“ gemini-”開頭,“ Learnlm-”或“ Models/”。否則,這些默認值適用:
chat/completions : gemini-1.5-pro-latestembeddings : text-embedding-004 根據OpenAI規格支持的視覺和音頻輸入。通過inlineData實施。
chat/completions
當前,除功能調用外,已實現了兩個適用於兩個API的參數。
messagescontentrolesystem (=> system_instruction ) userassistanttool (v1beta) nametool_callsmodelfrequency_penaltylogit_biaslogprobstop_logprobsmax_tokensn ( candidateCount <8,不是用於流式傳輸) presence_penaltyresponse_formatseedservice_tierstop :字符串|陣列( stopSequences [1,5]) streamstream_optionsinclude_usagetemperature (Openai的0.0..2.0,但Gemini支持無窮大) top_ptools (v1beta) tool_choice (v1beta) parallel_tool_callsuser completions
embeddings
models