Openai-API-Proxy
One-LineDockerコマンドを介したOpenai APIの簡単なプロキシ
自分で構築できない場合は、中国でアクセスできるサードパーティのOpenai APIサービスを試してみることができます。
- Tencent Cloud Function DeploymentチュートリアルTencent Cloud Functionは、4月25日以来、地域全体でSSEをサポートしています。使用することをお勧めします。
- 単純化された中国の指示
- 「OpenAI/GPTアプリケーションを迅速に開発する方法:国内開発者ノート」
SSEはすでにサポートされており、コンテンツはリアルタイムで返品できます
以下はGPTによって翻訳されています。次の英語はGPTによって翻訳されました。
ショ和これは、クライアント側ではなく、プロキシのサーバー側です。
特徴
- SSEストリーミング出力をサポートします
- ビルトインテキストモデレート(Tencent Cloudキー構成が必要です)
- SSEストリーミング出力はテキストのモデレートをサポートしています。
nodejsの展開
クラウド関数やエッジコンピューティングプラットフォームなど、nodejs14+をサポートする任意の環境に./app.jsを展開できます。
- app.jsとpackage.jsonをディレクトリにコピーします
- YARNインストールで依存関係をインストールします
- Node App.jsでサービスを開始します
Dockerの展開
docker run -p 9000:9000 easychen/ai.level06.com:latest
プロキシアドレスはhttp:// $ {ip}:9000です
利用可能な環境変数
- ポート:サービスポート
- proxy_key:アクセスを制限するために使用されるプロキシアクセスキー
- タイムアウト:リクエストタイムアウト、デフォルト30秒
- tencent_cloud_sid:tencent cloud secret_id
- tencent_cloud_skey:Tencent Cloud Secret_key
- tencent_cloud_ap:Tencent Cloud Region(AP-Singapore Singaporeなど)
API使用量
- OpenAIリクエストアドレスのドメイン/IP(ポート番号)を元のプロジェクト(https://api.openai.comなど)をこのプロキシのドメイン/IPに変更します。
- proxy_keyが設定されている場合は、Openaiキーの後に
:<PROXY_KEY>を追加します。 - 節度:trueはモデレートを有効にし、falseはモデレートを無効にします
- moderation_level:緩和の結果が合格しないすべての文を中断する高さは、緩和の結果がブロックである文のみを中断します。
メモ
- ファイル関連のインターフェイスではなく、メソッドをサポートして投稿します。
SSEは現在サポートされていないため、ストリーム関連のオプションをオフにする必要があります今サポートされています。
クライアント側の使用例
例としてhttps://www.npmjs.com/package/chatgpt使用してください。
chatApi = new gpt . ChatGPTAPI ( {
apiKey : 'sk.....:<proxy_key_here>' ,
apiBaseUrl : "http://localhost:9001/v1" , // Replace with proxy domain/IP
} ) ;
謝辞
- chatgpt-apiプロジェクト関連コードへのSSEリファレンス