Seu gateway do modelo AI - gerencie suavemente vários LLMs e modelos de imagens, acelere as respostas e garanta confiabilidade ininterrupta.
Na Writesonic, após três anos navegando no mundo de grandes modelos de idiomas, identificamos os principais desafios e construímos o GPTROUTER para resolvê -los.
Independência do modelo : não coloque todos os seus ovos em uma cesta. O GPtrouter permite que você se liberte das limitações de confiar em apenas um modelo de IA como o OpenAI. Se um modelo estiver inativo, o GPTROUTER o mantém em funcionamento mudando perfeitamente para outro.
Bata a latência : tempos de resposta lenta? Não mais. O GPTRouter foi projetado para resolver problemas de latência, especialmente com modelos pesados como o GPT-4. Experimente uma interação mais suave e rápida do usuário sem atrasos.
Integração diversificada de modelos : por que se contentar com um quando você pode ter mais? O GPTRouter suporta modelos de múltiplos e gerações de imagem, fornecendo opções de fallback para que seu sistema permaneça robusto e versátil.
| Modelos suportados | Conclusão | Transmissão | Conclusão assíncrona | Streaming assíncrono |
|---|---|---|---|---|
| Openai | ✅ | ✅ | ✅ | ✅ |
| Azure Openai | ✅ | ✅ | ✅ | ✅ |
| Antrópico | ✅ | ✅ | ✅ | ✅ |
| Replicar | ✅ | ✅ | ✅ | ✅ |
| Difusão estável | ✅ | ❗ | ✅ | ❗ |
| Dalle-3 | ✅ | ❗ | ✅ | ❗ |
| Coere | ✅ | ✅ | ✅ | ✅ |
| Mais por vir | ? | ? | ? | ? |
❗ Streaming não aplicável a modelos de imagem
? Em breve
Contribuidores são bem -vindos!
Pronto para começar? Aqui está como:
Colocando o servidor em execução
https://gpt-router-preview.writesonic.com/ . Obtenha sua chave da API preenchendo o formulário aqui.Depois que o servidor estiver em execução, você pode integrar o GPTROUTER no seu aplicativo usando nosso Python SDK ou através dos documentos da API. Enquanto isso, estamos trabalhando no JS e em outros clientes e estamos procurando contribuidores para ajudar.
Instale o gptrouter usando o PIP:
pip install gptrouterOu com conda:
conda install gptrouter -c conda-forgeExemplo de uso
from gpt_router . client import GPTRouterClient
from gpt_router . models import ModelGenerationRequest , GenerationParams
from gpt_router . enums import ModelsEnum , ProvidersEnum
client = GPTRouterClient ( base_url = 'your_base_url' , api_key = 'your_api_key' )
messages = [
{ "role" : "user" , "content" : "Write me a short poem" },
]
prompt_params = GenerationParams ( messages = messages )
claude2_request = ModelGenerationRequest (
model_name = ModelsEnum . CLAUDE_INSTANT_12 ,
provider_name = ProvidersEnum . ANTHROPIC . value ,
order = 1 ,
prompt_params = prompt_params ,
)
response = client . generate ( ordered_generation_requests = [ claude2_request ])
print ( response . choices [ 0 ]. text )Descubra mais: Explore o streaming e outros exemplos aqui.
Para documentação abrangente, visite: documentação do GPTRouter
Instruções detalhadas de instalação e orientação de configuração podem ser encontradas em nosso guia de início.
Congratulamo -nos com contribuições da comunidade! Se você estiver interessado em melhorar o GPtrouter, consulte nossas diretrizes de contribuição.