Ihr KI -Modell -Gateway - Verwalten Sie mehrere LLM- und Bildmodelle reibungslos, beschleunigen Sie die Antworten und gewährleisten ununterbrochene Zuverlässigkeit.
Bei Writesonic haben wir nach drei Jahren der Navigation durch die Welt der großen Sprachmodelle wichtige Herausforderungen identifiziert und GPROUSTER gebaut, um sie zu lösen.
Modellunabhängigkeit : Legen Sie nicht alle Eier in einen Korb. Mit GPTrouter können Sie sich von den Grenzen befreien, sich auf nur ein KI -Modell wie OpenAI zu verlassen. Wenn ein Modell ausgefallen ist, hält GPRouter Sie in Betrieb, indem Sie nahtlos zu einem anderen wechseln.
Die Latenz schlagen : langsame Reaktionszeiten? Nicht mehr. GPROUTER wurde entwickelt, um Latenzprobleme anzugehen, insbesondere mit hohen Modellen wie GPT-4. Erleben Sie eine glattere, schnellere Benutzerinteraktion ohne Verzögerungen.
Verschiedene Modellintegration : Warum sollten Sie sich für einen zufrieden geben, wenn Sie mehr haben können? GPTrouter unterstützt mehrere Sprach- und Bildgenerierungsmodelle und bietet Fallback -Optionen, sodass Ihr System robust und vielseitig bleibt.
| Unterstützte Modelle | Fertigstellung | Streaming | Asynchronisierte Fertigstellung | Asynchrones Streaming |
|---|---|---|---|---|
| Openai | ✅ | ✅ | ✅ | ✅ |
| Azure Openai | ✅ | ✅ | ✅ | ✅ |
| Anthropisch | ✅ | ✅ | ✅ | ✅ |
| Replizieren | ✅ | ✅ | ✅ | ✅ |
| Stabile Diffusion | ✅ | ❗ | ✅ | ❗ |
| Dalle-3 | ✅ | ❗ | ✅ | ❗ |
| Zusammenhängen | ✅ | ✅ | ✅ | ✅ |
| Weitere kommen | ? | ? | ? | ? |
❗ Streaming nicht für Bildmodelle anwendbar
? Bald kommen
Mitwirkende Willkommen!
Bereit, loszulegen? So wie: wie:
Den Server zum Laufen bringen
https://gpt-router-preview.writesonic.com/ . Holen Sie sich Ihren API -Schlüssel, indem Sie das Formular hier ausfüllen.Sobald der Server ausgeführt wird, können Sie GPTrouter mit unserem Python SDK oder über die API -Dokumente in Ihre Anwendung integrieren. In der Zwischenzeit arbeiten wir an JS und anderen Kunden und suchen nach Mitwirkenden, um zu helfen.
Installieren Sie den GPTrouter mit PIP:
pip install gptrouterOder mit Conda:
conda install gptrouter -c conda-forgeNutzungsbeispiel
from gpt_router . client import GPTRouterClient
from gpt_router . models import ModelGenerationRequest , GenerationParams
from gpt_router . enums import ModelsEnum , ProvidersEnum
client = GPTRouterClient ( base_url = 'your_base_url' , api_key = 'your_api_key' )
messages = [
{ "role" : "user" , "content" : "Write me a short poem" },
]
prompt_params = GenerationParams ( messages = messages )
claude2_request = ModelGenerationRequest (
model_name = ModelsEnum . CLAUDE_INSTANT_12 ,
provider_name = ProvidersEnum . ANTHROPIC . value ,
order = 1 ,
prompt_params = prompt_params ,
)
response = client . generate ( ordered_generation_requests = [ claude2_request ])
print ( response . choices [ 0 ]. text )Ermitteln Sie mehr: Erforschen Sie hier Streaming und andere Beispiele.
Für umfassende Dokumentation besuchen Sie: GPTrouter -Dokumentation
Detaillierte Installationsanweisungen und Einrichtungsanleitungen finden Sie in unserem Handbuch für Erste Schritte.
Wir begrüßen Beiträge aus der Community! Wenn Sie an der Verbesserung der GPROUTER interessiert sind, finden Sie in unseren Beitragsrichtlinien.