Ein erholter Webdienst, der erstellt hat, um eine einfache API zum Generieren von Text mit verschiedenen GPT -Modellen zu erstellen, die auf verschiedenen Anbietern basieren. Unabhängig davon, ob Sie die Chat -Fertigstellung in Ihre Anwendung integrieren oder die Funktionen verschiedener GPT -Modelle untersuchen möchten, dieses Projekt hat Sie behandelt. Stützt sich auf Xtekky/gpt4Free.
Eine Beispiel -App, um eine Demo zu zeigen, wie diese API verwendet werden kann. Die folgende App wandelt ein YouTube -Video in Markdown -Blog um, das bearbeitet werden kann.
# Clone the repository
git clone https://github.com/nagarajpandith/GPTGateway.git
# Navigate to the project directory
cd GPTGateway
# Create a virtual environment
python3 -m venv venv
# Activate the virtual environment
source venv/bin/activate
# Install the required packages
pip3 install -r requirements.txtErstellen Sie eine .env -Datei und füllen Sie die api_key var.
python3 app.pycurl curl -X POST -H " Content-Type: application/json " -d ' {"content": "YOUR_PROMPT", "api_key":"API_KEY_HERE", "provider": "PROVIDER_NAME", "stream": false} ' http://127.0.0.1:5000/chat_completion{
"content" : " YOUR_PROMPT " ,
"api_key" : " API_KEY_HERE " ,
"provider" : " PROVIDER_NAME " ,
"stream" : false
}Notiz
Sie können diese API selbst hosten, aber wenn Sie bereits gehostete API verwenden möchten, ist sie live unter https://gptgateway.onrender.com.
| Endpunkt | Beschreibung | Verfahren | Beispielkörper |
|---|---|---|---|
/chat_completion | Generiert Text mit einem Modell basierend auf Anbieter | POST | {"content": "YOUR_PROMPT", "api_key": "API_KEY_HERE", "provider": "PROVIDER_NAME", "stream": false} |
/working_providers | Ruft eine Liste der Arbeiteranbieter ab | ERHALTEN | {} |
Tipp
Die Anbieter- und Stream -Parameter sind optional. Wenn nicht bereitgestellt, wird der Standardanbieter auf "Bing" gesetzt und der Standardstrom ist auf true gesetzt. Wenn der Stream auf False eingestellt ist, befindet sich die Antwort im direkten endgültigen Ausgabeformat.
Zuletzt getestet am 9-12-2023 mit "Stream" = false
Notiz
Um die Anbieter und ihre Modelle zu kennen, beziehen sich dies.
Statuswerte
Wichtig
Wenn ein Anbieter nicht funktioniert, liegt es wahrscheinlich daran, dass er spezielle Argumente wie Auth = 'Cookie' oder 'JWT' benötigt oder der Webdriver keine Verbindung herstellt, da für die meisten Anbieter hier oder die IP -Adresse Blockierung usw. erforderlich ist. Um es selbst zu testen, führen Sie python3 test.py Skript aus.
| Anbieter | Lokal/gehostet/beides | Durchschnittliche Reaktionszeit |
|---|---|---|
| Aitianhuspace | Keiner | 0,0000 |
| Aichatonline | Beide | 1.7414 |
| Barde | Keiner | 0,0000 |
| Bing | Beide | 7.5283 |
| Chatbase | Beide | 11.0944 |
| Chatforai | Keiner | 0,0000 |
| CHATGPT4Online | Keiner | 0,0000 |
| Chatgptai | Beide | 4.0048 |
| CHATGPTNEXT | Beide | 1.1684 |
| Deepinfra | Beide | 2.9104 |
| FakeGpt | Keiner | 0,0000 |
| Gptalk | Keiner | 0,0000 |
| Geekgpt | Gehostet | 2.6676 |
| Gptchatly | Keiner | 0,0000 |
| Gptforlove | Keiner | 0,0000 |
| Gptgo | Lokal | 1.0809 |
| Gptttalkru | Beide | 1.3263 |
| Hashhnode | Beide | 14.0748 |
| Umarmung | Keiner | 0,0000 |
| Koala | Lokal | 2.3503 |
| Liaobots | Keiner | 0,0000 |
| LAMA22 | Keiner | 0,0000 |
| Myshell | Lokal | 9.0187 |
| Onlinegpt | Beide | 2.3497 |
| Openaichat | Keiner | 0,0000 |
| Verwirrung | Lokal | 10.8567 |
| Phind | Beide | 0,4872 |
| Pi | Lokal | 8.9026 |
| Poe | Keiner | 0,0000 |
| Raycast | Keiner | 0,0000 |
| Wiederholung | Keiner | 0,0000 |
| Talkai | Lokal | 13.3812 |
| Theb | Keiner | 0,0000 |
| Thebapi | Keiner | 0,0000 |
| Du | Lokal | 1.6147 |
| Yqcloud | Keiner | 0,0000 |
Ich habe diese Anbieter manuell getestet und finde sie die zuverlässigsten und schnellen.
| Anbieter | Lokal/gehostet/beides | Durchschnittliche Reaktionszeit |
|---|---|---|
| Gptttalkru | Beide | 2-3s |
| Geekgpt | Beide | 6-8s |
| Chatgptai | Beide | 5s |
| CHATGPTNEXT | Beide | 7-8s |
| Aichatonline | Lokal | 4s |
| Gptchatly | Lokal | 4-5s |
| Onlinegpt | Lokal | 4s |
| Bing | Beide | 15-20s |
| Chatbase | Beide | 12-13s |
| Koala | Lokal | 4s |
| Gptgo | Lokal | 12s |
| Du | Lokal | 10s |
| Myshell | Lokal | 11s |
| Pi | Lokal | 11s |
| Verwirrung | Lokal | 14s |
| Hashhnode | Beide | 18s |
| Talkai | Lokal | 20s |
| Deepinfra | Beide | 31-47s |
| Theb | Lokal | 12s |
Wichtig
Nur ein Hobby -Projekt für die Zeit, haben keine weiteren Absichten der weiteren Entwicklung, da es sich nur um ein einfaches Wrapper um das GPT4Free -Projekt handelt. Persönlich würde ich nicht die Verwendung von Anbietern für die Produktion von Produktionsnutzungen empfehlen, sie könnten jeden Moment sinken und sind sehr unzuverlässig. Hostet stattdessen selbst eine der Open Source -LLMs. Meine persönliche Entscheidung wäre Mistral-7b, das deutlich besser abschneidet als das LLAMA2-13B-Modell von Meta. Kasseliste von Open Source LLMS hier und Arena -Rangliste hier (von der Öffentlichkeit abgestimmt).