さまざまなプロバイダーに基づいて、さまざまなGPTモデルを使用してテキストを生成するための簡単なAPIを提供するために作成されたRESTFUL WEBサービス。チャットの完了をアプリケーションに統合するか、さまざまなGPTモデルの機能を調べたい場合でも、このプロジェクトで説明しています。 xtekky/gpt4freeに依存しています。
このAPIの使用方法のデモを紹介するための例のアプリ。以下のアプリは、YouTubeビデオを編集できるMarkdownブログに変換します。
# Clone the repository
git clone https://github.com/nagarajpandith/GPTGateway.git
# Navigate to the project directory
cd GPTGateway
# Create a virtual environment
python3 -m venv venv
# Activate the virtual environment
source venv/bin/activate
# Install the required packages
pip3 install -r requirements.txt.ENVファイルを作成し、API_KEY varに入力します。
python3 app.pycurlを使用しますcurl -X POST -H " Content-Type: application/json " -d ' {"content": "YOUR_PROMPT", "api_key":"API_KEY_HERE", "provider": "PROVIDER_NAME", "stream": false} ' http://127.0.0.1:5000/chat_completion{
"content" : " YOUR_PROMPT " ,
"api_key" : " API_KEY_HERE " ,
"provider" : " PROVIDER_NAME " ,
"stream" : false
}注記
このAPIを自分でホストできますが、すでにホストされているAPIを使用する場合は、https://gptgateway.onrender.comでライブです。
| 終点 | 説明 | 方法 | 本文の例 |
|---|---|---|---|
/chat_completion | プロバイダーに基づいてモデルを使用してテキストを生成します | 役職 | {"content": "YOUR_PROMPT", "api_key": "API_KEY_HERE", "provider": "PROVIDER_NAME", "stream": false} |
/working_providers | 作業プロバイダーのリストを取得します | 得る | {} |
ヒント
プロバイダーとストリームのパラメーターはオプションです。提供されていない場合、デフォルトのプロバイダーは「bing」に設定され、デフォルトのストリームがtrueに設定されます。ストリームがfalsに設定されている場合、応答は直接最終出力形式になります。
「stream」= falseを使用して9-12-2023で最後にテストしました
注記
プロバイダーとそのモデルを知るには、これを参照してください。
ステータス値
重要
プロバイダーが機能していない場合、これはおそらく、Auth = 'cookie'や「jwt」などの特別なargが必要な場合、またはWebDriverが接続できないためです。自分でテストするには、 python3 test.pyスクリプトを実行します。
| プロバイダー | ローカル/ホスト/両方 | 平均応答時間 |
|---|---|---|
| AitianHuspace | なし | 0.0000 |
| aichatonline | 両方 | 1.7414 |
| 吟遊詩人 | なし | 0.0000 |
| ビング | 両方 | 7.5283 |
| チャットベース | 両方 | 11.0944 |
| Chatforai | なし | 0.0000 |
| chatgpt4online | なし | 0.0000 |
| chatgptai | 両方 | 4.0048 |
| chatgptnext | 両方 | 1.1684 |
| deepinfra | 両方 | 2.9104 |
| fakegpt | なし | 0.0000 |
| gptalk | なし | 0.0000 |
| geekgpt | ホスト | 2.6676 |
| gptchatly | なし | 0.0000 |
| gptorlove | なし | 0.0000 |
| gptgo | 地元 | 1.0809 |
| gpttalkru | 両方 | 1.3263 |
| ハスノード | 両方 | 14.0748 |
| Huggingchat | なし | 0.0000 |
| コアラ | 地元 | 2.3503 |
| リアボット | なし | 0.0000 |
| llama2 | なし | 0.0000 |
| myshell | 地元 | 9.0187 |
| オンラインgpt | 両方 | 2.3497 |
| Openaichat | なし | 0.0000 |
| perplexityai | 地元 | 10.8567 |
| フィンド | 両方 | 0.4872 |
| pi | 地元 | 8.9026 |
| ポー | なし | 0.0000 |
| レイキャスト | なし | 0.0000 |
| retryprovider | なし | 0.0000 |
| Talkai | 地元 | 13.3812 |
| theb | なし | 0.0000 |
| thebapi | なし | 0.0000 |
| あなた | 地元 | 1.6147 |
| yqcloud | なし | 0.0000 |
これらのプロバイダーを手動でテストしましたが、最も信頼性が高く高速なプロバイダーであることがわかりました。
| プロバイダー | ローカル/ホスト/両方 | 平均応答時間 |
|---|---|---|
| gpttalkru | 両方 | 2-3秒 |
| geekgpt | 両方 | 6-8S |
| chatgptai | 両方 | 5秒 |
| chatgptnext | 両方 | 7-8s |
| aichatonline | 地元 | 4s |
| gptchatly | 地元 | 4-5秒 |
| オンラインgpt | 地元 | 4s |
| ビング | 両方 | 15-20S |
| チャットベース | 両方 | 12-13 |
| コアラ | 地元 | 4s |
| gptgo | 地元 | 12秒 |
| あなた | 地元 | 10秒 |
| myshell | 地元 | 11秒 |
| pi | 地元 | 11秒 |
| perplexityai | 地元 | 14秒 |
| ハスノード | 両方 | 18秒 |
| Talkai | 地元 | 20秒 |
| deepinfra | 両方 | 31-47S |
| theb | 地元 | 12秒 |
重要
時間を過ごすための趣味のプロジェクトは、GPT4Freeプロジェクトに関する単純なラッパーであるため、さらなる開発の意図はありません。個人的には、プロバイダーの使用を生産ユーザーケースに使用することはお勧めしません。代わりに、オープンソースLLMSを自分でホストします。私の個人的な選択は、Mistral-7Bであり、MetaのLlama2-13Bモデルよりも大幅に優れています。オープンソースのLLMSのチェックアウトリストはこちらとアリーナリーダーボード(一般に投票)。