free llm api resources
1.0.0
Isso lista vários serviços que fornecem acesso gratuito ou créditos ao uso de LLM baseado em API.
Observação
Por favor, não abuse esses serviços, caso contrário, podemos perdê -los.
Aviso
Esta lista exclui explicitamente quaisquer serviços que não sejam legítimos (por exemplo, engenheiros reversos um chatbot existente)
| Provedor | Limites/notas do provedor | Nome do modelo | Limites do modelo |
|---|---|---|---|
| Groq | Sussurro destil grande v3 | 7.200 segundos de áudio/minuto 2.000 solicitações/dia | |
| Gemma 2 9b Instruct | 14.400 solicitações/dia 15.000 tokens/minuto | ||
| Gemma 7b Instruct | 14.400 solicitações/dia 15.000 tokens/minuto | ||
| Llava 1.5 7b | 14.400 solicitações/dia 30.000 tokens/minuto | ||
| LLAMA 3 70B | 14.400 solicitações/dia 6.000 tokens/minuto | ||
| LLAMA 3 70B - Ferramenta Groq Use visualização | 14.400 solicitações/dia 15.000 tokens/minuto | ||
| LLAMA 3 8B | 14.400 solicitações/dia 30.000 tokens/minuto | ||
| LLAMA 3 8B - Ferramenta Groq Use visualização | 14.400 solicitações/dia 15.000 tokens/minuto | ||
| LLAMA 3.1 70B | 14.400 solicitações/dia 6.000 tokens/minuto | ||
| LLAMA 3.1 8B | 14.400 solicitações/dia 20.000 tokens/minuto | ||
| Visão LLAMA 3.2 11B | 7.000 solicitações/dia 7.000 tokens/minuto | ||
| LLAMA 3.2 1B | 7.000 solicitações/dia 7.000 tokens/minuto | ||
| LLAMA 3.2 3B | 7.000 solicitações/dia 7.000 tokens/minuto | ||
| Visão de lhama 3.2 90b | 3.500 solicitações/dia 7.000 tokens/minuto | ||
| Guarda de lhama 3 8b | 14.400 solicitações/dia 15.000 tokens/minuto | ||
| Mixtral 8x7b | 14.400 solicitações/dia 5.000 tokens/minuto | ||
| Sussurro grande v3 | 7.200 segundos de áudio/minuto 2.000 solicitações/dia | ||
| Sussurro grande v3 turbo | 7.200 segundos de áudio/minuto 2.000 solicitações/dia | ||
| OpenRouter | 20 solicitações/minuto 200 solicitações/dia | Gemma 2 9b Instruct | |
| Hermes 3 llama 3.1 405b | |||
| LIFM LFM 40B | |||
| Lhama 3 8b Instruct | |||
| Lhama 3.1 405b Instruct | |||
| Lhama 3.1 70b Instruct | |||
| Lhama 3.1 8b Instruct | |||
| Lhama 3.2 11b Vision Instruct | |||
| Lhama 3.2 1b Instruct | |||
| Lhama 3.2 3b Instruct | |||
| Lhama 3.2 90b Vision Instruct | |||
| Mistral 7b Instruct | |||
| Mythomax L2 13b | |||
| OpenChat 7b | |||
| Phi-3 Medium 128K Instruct | |||
| Phi-3 Mini 128K Instruto | |||
| Qwen 2 7b Instruto | |||
| Toppy M 7b | |||
| Zephyr 7b beta | |||
| Google AI Studio | Os dados são usados para treinamento (quando usado fora do Reino Unido/CH/EEA/UE). | Gêmeos 1.5 Flash | 1.000.000 de tokens/minuto 1.500 solicitações/dia 15 solicitações/minuto |
| Gêmeos 1.5 Flash (Experimental) | 1.000.000 de tokens/minuto 1.500 solicitações/dia 5 solicitações/minuto | ||
| Gêmeos 1,5 Flash-8B | 1.000.000 de tokens/minuto 1.500 solicitações/dia 15 solicitações/minuto | ||
| Gêmeos 1.5 Flash-8b (Experimental) | 1.000.000 de tokens/minuto 1.500 solicitações/dia 15 solicitações/minuto | ||
| Gêmeos 1.5 Pro | 32.000 tokens/minuto 50 solicitações/dia 2 solicitações/minuto | ||
| Gemini 1.5 Pro (experimental) | 1.000.000 de tokens/minuto 50 solicitações/dia 2 solicitações/minuto | ||
| Gemini 1.0 Pro | 32.000 tokens/minuto 1.500 solicitações/dia 15 solicitações/minuto | ||
| Text-Embetingding-004 | 150 solicitações em lote/minuto 1.500 solicitações/minuto 100 conteúdo/lote | ||
| incorporação-001 | |||
| Lambda Labs (visualização gratuita) | Requer verificação do cartão de crédito. | Hermes 3 405b | |
| Hermes 3 70B | |||
| Hermes 3 8b | |||
| LIFM LFM 40B | |||
| LLAMA 3.1 405B Instruct (FP8) | |||
| LLAMA 3.1 70B Instruct (FP8) | |||
| Lhama 3.1 8b Instruct | |||
| LLAMA 3.1 Nemotron 70B Instruto | |||
| Lhama 3.2 3b Instruct | |||
| Qwen2.5 codificador 32b Instruto | |||
| Mistral (la placforme) | O nível gratuito (plano de experimento) requer optar no treinamento de dados, requer verificação do número de telefone. | Modelos Mistrais Abertos e Proprietários | 1 solicitação/segundo 500.000 tokens/minuto 1.000.000.000 de tokens/mês |
| Mistral (codestral) | Atualmente gratuito, baseado em assinatura mensal, requer verificação de número de telefone. | Codestral | 30 solicitações/minuto 2.000 solicitações/dia |
| Inferência sem servidor Huggingface | Limitado a modelos menores que 10 GB. Alguns modelos populares são suportados, mesmo que excedam 10 GB. | Vários modelos abertos | 1.000 solicitações/dia (com uma conta) |
| Sambanova Cloud | LLAMA 3.1 405B | 10 solicitações/minuto | |
| LLAMA 3.2 90B | 1 solicitação/minuto | ||
| LLAMA 3.1 70B | 20 solicitações/minuto | ||
| LLAMA 3.2 11B | 10 solicitações/minuto | ||
| LLAMA 3.1 8B | 30 solicitações/minuto | ||
| LLAMA 3.2 3B | 30 solicitações/minuto | ||
| LLAMA 3.2 1B | 30 solicitações/minuto | ||
| Cerebras | Lista de espera Camada livre restrita ao contexto de 8k | LLAMA 3.1 8B | 30 solicitações/minuto 60.000 tokens/minuto 900 solicitações/hora 1.000.000 de tokens/hora 14.400 solicitações/dia 1.000.000 de tokens/dia |
| LLAMA 3.1 70B | 30 solicitações/minuto 60.000 tokens/minuto 900 solicitações/hora 1.000.000 de tokens/hora 14.400 solicitações/dia 1.000.000 de tokens/dia | ||
| Modelos Github | Lista de espera Limites de taxa dependentes da camada de assinatura copilota | AI21-JAMBA-INSTRUCT | |
| Coere comando r | |||
| Comando coere r+ | |||
| Coere incorporar v3 inglês | |||
| Coere incorporar v3 multilíngue | |||
| META-LLAMA-3-70B-INSTRUTA | |||
| META-LLAMA-3-8B-INSTRUTA | |||
| Meta-llama-3.1-405b-Instruct | |||
| META-LLAMA-3.1-70B-INSTRUTA | |||
| META-LLAMA-3.1-8B-INSTRUTA | |||
| Mistral grande | |||
| Mistral grande (2407) | |||
| Nemo Mistral | |||
| Mistral pequeno | |||
| Openai GPT-4O | |||
| Openai GPT-4o Mini | |||
| Texto OpenAI incorporando 3 (grande) | |||
| Texto do OpenAI incorporando 3 (pequeno) | |||
| Phi-3-Medium Instruct (128K) | |||
| Phi-3-Medium Instruct (4K) | |||
| Phi-3-mini Instruct (128K) | |||
| Phi-3-mini Instruct (4K) | |||
| Phi-3-Small Instruct (128K) | |||
| Phi-3-Small Instruct (8K) | |||
| Phi-3.5-mini Instruct (128K) | |||
| Endpoints da OVH AI (beta grátis) | Codellama 13b Instruct | 12 solicitações/minuto | |
| Codestral Mamba 7b v0.1 | 12 solicitações/minuto | ||
| Lhama 2 13b chat | 12 solicitações/minuto | ||
| Lhama 3 70b Instruct | 12 solicitações/minuto | ||
| Lhama 3 8b Instruct | 12 solicitações/minuto | ||
| Lhama 3.1 70b Instruct | 12 solicitações/minuto | ||
| Mathstral 7b v0.1 | 12 solicitações/minuto | ||
| Mistral 7b Instruct | 12 solicitações/minuto | ||
| Mistral Nemo 2407 | 12 solicitações/minuto | ||
| Mixtral 8x22b Instruct | 12 solicitações/minuto | ||
| Mixtral 8x7b Instruct | 12 solicitações/minuto | ||
| Cloudflare Workers AI | 10.000 tokens/dia | Deepseek Coder 6.7b Base (AWQ) | |
| Deepseek Coder 6.7b Instruct (AWQ) | |||
| Deepseek Math 7b Instruct | |||
| Discolm alemão 7b V1 (AWQ) | |||
| Falcom 7b Instruct | |||
| Gemma 2B Instruct (Lora) | |||
| Gemma 7b Instruct | |||
| Gemma 7b Instruct (Lora) | |||
| Hermes 2 Pro Mistral 7b | |||
| Lhama 2 13b Chat (AWQ) | |||
| Lhama 2 7b Chat (FP16) | |||
| Lhama 2 7b Chat (int8) | |||
| Lhama 2 7b Chat (Lora) | |||
| Lhama 3 8b Instruct | |||
| Lhama 3 8b Instruct | |||
| Lhama 3 8b Instruct (AWQ) | |||
| Lhama 3.1 8b Instruct | |||
| LLAMA 3.1 8B Instruct (AWQ) | |||
| LLAMA 3.1 8B Instruct (FP8) | |||
| Lhama 3.2 11b Vision Instruct | |||
| Lhama 3.2 1b Instruct | |||
| Lhama 3.2 3b Instruct | |||
| Llamaguard 7b (AWQ) | |||
| Mistral 7b Instruct V0.1 | |||
| Mistral 7b Instruct V0.1 (AWQ) | |||
| Mistral 7b Instruct V0.2 | |||
| Mistral 7b Instruct V0.2 (Lora) | |||
| Chat Neural 7B v3.1 (AWQ) | |||
| OpenChat 3.5 0106 | |||
| OpenHermes 2.5 Mistral 7b (AWQ) | |||
| Phi-2 | |||
| Qwen 1,5 0,5b chat | |||
| QWEN 1.5 1,8B Chat | |||
| QWEN 1.5 14B Chat (AWQ) | |||
| QWEN 1.5 7B Chat (AWQ) | |||
| SQLCoder 7b 2 | |||
| Starling LM 7B beta | |||
| Tinyllama 1.1b chat v1.0 | |||
| Una Cybertron 7b V2 (BF16) | |||
| Zephyr 7b Beta (AWQ) | |||
| Junto | Lhama 3.2 11b Vision Instruct | Grátis para 2024 | |
| Coere | 20 solicitações/min 1.000 solicitações/mês | Command-R | Limite compartilhado |
| Command-R+ | |||
| Google Cloud Vertex AI | Verificação de pagamento muito rigorosa para o Google Cloud. | Lhama 3.1 70b Instruct | Serviço de API da LLAMA 3.1 GRATUITO durante a pré -visualização. 60 solicitações/minuto |
| Lhama 3.1 8b Instruct | Serviço de API da LLAMA 3.1 GRATUITO durante a pré -visualização. 60 solicitações/minuto | ||
| Lhama 3.2 90b Vision Instruct | Serviço de API da LLAMA 3.2 GRATUITO durante a pré -visualização. 30 solicitações/minuto | ||
| Gêmeos Flash experimental | Modelo experimental de Gêmeos. 10 solicitações/minuto | ||
| Gemini Pro Experimental | |||
| Glhf.chat (beta grátis) | Email para acesso da API | Qualquer modelo sobre abraçar o Face Runnable no VLLM e se encaixa em um nó A100 (~ 640 GB VRAM), incluindo LLAMA 3.1 405B no FP8 |
| Provedor | Créditos | Requisitos | Modelos |
|---|---|---|---|
| Junto | $ 5 | Vários modelos abertos | |
| Fogos de artifício | $ 1 | Vários modelos abertos | |
| Unificar | $ 10 (+$ 40 por entrar em contato) | Rotas para outros fornecedores, vários modelos abertos e modelos proprietários (Openai, Gêmeos, Antrópicos, Mistral, Perplexidade, etc.) | |
| Deepinfra | $ 1,80 | Vários modelos abertos | |
| Nvidia nim | 1.000 pedidos de API por 1 mês | Vários modelos abertos | |
| AI21 | US $ 10 por 3 meses | Jamba/Jurrasic-2 | |
| NLP Cloud | $ 15 | Verificação do número de telefone | Vários modelos abertos |
| Upstage | US $ 10 por 3 meses | Solar pro/mini | |
| BASETEN | $ 30 | Qualquer modelo suportado - pague por tempo de computação | |
| xai | US $ 25/mês até o final de 2024 | Grok | |
| Hiperbólico | $ 10 | Deepseek v2.5 | |
| Hermes 3 llama 3.1 70b | |||
| Lhama 3 70b Instruct | |||
| LLAMA 3.1 BASE 405B | |||
| LLAMA 3.1 BASE 405B (FP8) | |||
| Lhama 3.1 405b Instruct | |||
| Lhama 3.1 70b Instruct | |||
| Lhama 3.1 8b Instruct | |||
| Lhama 3.2 3b Instruct | |||
| Pixtral 12b (2409) | |||
| Qwen qwq 32b visualização | |||
| QWEN2-VL 72B Instruct | |||
| QWEN2-VL 7b Instruct | |||
| Qwen2.5 72b Instruct | |||
| Qwen2.5 codificador 32b Instruto |