cloudflare ai web
3.1.0
Beispiel: https://ai.jaze.top
https://dash.deno.com
NITRO_PRESET=deno-deploy npm run build_nodedocker run -d --name cloudflare-ai-web
-e CF_TOKEN=YOUR_CF_TOKEN
-e CF_GATEWAY=YOUR_CF_GATEWAY
-p 3000:3000
--restart=always
jazee6/cloudflare-ai-webChatGPT Gemini Pro Stable Diffusion llama-3通义千问usw.https://developers.cloudflare.com/workers-ai/models/
Sie können Modelle in ./utils/db.ts hinzufügen oder löschen
| Name | beschreiben |
|---|---|
| Cf_token | Cloudflare Workers AI Token |
| Cf_gateway | Cloudflare AI Gateway URL |
| Openai_api_key | OpenAI -API -Schlüssel (füllen Sie ein, wenn ChatGPT erforderlich ist) |
| Openai_api_url | Passen Sie OpenAI API -Anforderungsadresse an |
| G_api_key | Google AI API -Schlüssel (Füllen Sie ein, wenn Geminipro erforderlich ist) |
| G_api_url | Google AI Anti-Generation (Regionale Füllung unterstützen oder auf die folgende Konfiguration beziehen) |
| PASSWORT | Passwort zugreifen (optional) |
Beispiel: Zeigen Sie die Datei .env.example an
https://dash.cloudflare.com/profile/api-tokens
https://dash.cloudflare.com/
/ ) und setzen Sie Umgebungsvariablen https://ai.google.dev/tutorials/rest_quickstart#set_up_your_api_key
Siehe https://github.com/jazee6/gemini-Proxy, um Anti-Generation aufzubauen, kein / für das Ende
Oder fügen Sie die folgende Konfiguration in nuxt.config.ts hinzu
nitro: {
vercel: {
regions: ["sin1", "syd1", "sfo1", "iad1", "pdx1", "cle1"]
}
}