
中国語|
マルチプラットフォームモデルアクセス、スケーラブル、および複数の出力形式、ロボットプラグインを提供するロボットプラグインを提供します。
プロジェクトのステータス:1.0の公式バージョンに着実に反復しました(現在リリース候補ステージに入っています)
| プリセット | プラグインモードとストリーミング出力 | 画像レンダリング出力 |
|---|---|---|
このプラグインをコイシの下に直接インストールして、追加の構成なしで基本的な関数を使用できます。
詳細については、このドキュメントを読んでください。
現在、次のモデル/プラットフォームをサポートしています。
| モデル/プラットフォーム | アクセス方法 | 特性 | 注意すべきこと |
|---|---|---|---|
| Openai | ローカルクライアント、公式APIアクセス | カスタマイズ可能な個性、サポートプラグイン/ブラウジングモード、その他のチャットモード | APIアクセスが請求されます |
| Azure Openai | ローカルクライアント、公式APIアクセス | カスタマイズ可能な個性、サポートプラグイン/ブラウジングモード、その他のチャットモード | APIアクセスが請求されます |
| Google Gemini | ローカルクライアント、公式APIアクセス | 高速速度、パフォーマンスはGPT-3.5を上回ります | Geminiアクセスアカウントが必要で、請求する場合があります |
| クロードAPI | ローカルクライアント、公式APIアクセス | 非常に大きなコンテキスト、ほとんどの場合、GPT 3.5を超え、APIキーが必要であり、料金が必要です | 高価であり、関数呼び出しをサポートしていない可能性があります |
| Tongyi Qianの質問 | ローカルクライアント、公式APIアクセス | アリは、無料の割り当てを備えた国内モデルを生成します | 実際の測定効果はZhishuの測定効果よりもわずかに優れています |
| 知恵 | ローカルクライアント、公式APIアクセス | chatglm、新人は無料のトークンクォータを取得できます | 実際のテスト効果は、iflytekスパークよりもわずかに優れています |
| iflytekスパーク | ローカルクライアント、公式APIアクセス | 国内モデル、新人は無料のトークンクォータを取得できます | 実際の測定効果はGPT 3.5にほぼ等しい |
| ウェン・シンの言葉 | ローカルクライアント、公式APIアクセス | Baiduシリーズモデルモデル | 実際のテスト効果は、iflytekスパークよりもわずかに悪いです |
| Hunyuan Big Model | ローカルクライアント、公式APIアクセス | ビッグモデルのテンセントシリーズ | 実際のテスト効果は、Wen Xinyiyanよりも優れています |
| オラマ | ローカルクライアントは、APIアクセスを構築しました | 有名なオープンソースモデルコレクション、CPU/GPUハイブリッド展開をサポートし、ローカルで構築できます | 独自のバックエンドAPIを構築する必要があり、特定の構成が必要です |
| GPT無料 | ローカルクライアント、公式APIアクセス | ローカル転送は、他のWebサイトのGPTモデルを使用し、プロジェクトは手動登録なしでWebサイトなどを自動的に構成するなどを使用します | いつでも失敗し、不安定になる可能性があります |
| chatglm | ローカルクライアント、自己構築されたバックエンドAPIアクセス | ローカルで構築することができ、丸めにはお金がありません | 独自のバックエンドAPIを構築する必要があります。これには、特定の構成が必要であるため、チャット効果が不十分です。 |
| RWKV | ローカルクライアントは、APIアクセスを構築しました | よく知られているオープンソースモデルは、ローカルで構築できます | 独自のバックエンドAPIを構築する必要があり、特定の構成が必要です |
ネットワーク検索機能を提供するためにモデルをサポートします。
バージョン1.0.0-alpha.10から始めて、よりカスタマイズ可能なプリセットを使用します。新しいパーソナリティプリセットは、YAMLを構成ファイルとして使用します。
ここをクリックして、デフォルトに付属の個性ファイルを表示できます:catgirl.yml
デフォルトのプリセットフォルダーパスは你当前运行插件的koishi 目录的路径+/data/chathub/presetsです。
すべてのプリセットファイルは、上記のフォルダーからロードされます。したがって、このフォルダーにプリセットファイルを自由に追加および編集し、コマンドを使用してパーソナリティプリセットを切り替えることができます。
詳細については、このドキュメントをご覧ください。
KhatlunaをクローンするKoishiテンプレートプロジェクトで次の指示を実行します。
# yarn
yarn clone ChatLunaLab/chatluna
# npm
npm run clone ChatLunaLab/chatluna ChatLunaLab/chatluna-koishiフォーク後のプロジェクトアドレスに置き換えることができます。
次に、テンプレートプロジェクトのルートディレクトリでtsconfig.jsonファイルを編集し、 compilerOptions.pathsにchatlunaプロジェクトパスを追加します。
{
"extends" : " ./tsconfig.base " ,
"compilerOptions" : {
"baseUrl" : " . " ,
"paths" : {
"koishi-plugin-chatluna-*" : [ " external/chatluna/packages/*/src " ]
}
}
}プロジェクト自体は複雑であるため、最初の使用は一度構築する必要があります。
# yarn
yarn workspace @root/chatluna-koishi build
# npm
npm run build -w @root/chatluna-koishi仕上げる!これで、Root Projectでyarn devまたはnpm run devを使用してテンプレートプロジェクトを開始し、Chatlunaを2回開発できます。
Koishiはモジュールホット交換(HMR)をサポートしていますが、このプロジェクトは完全に互換性がない場合があります。
HMRを使用してこのプロジェクトを開発しているときにバグがある場合は、問題に発行し、上記の手順に従ってプロジェクトを再構築し、Koishiを再起動して修正しようとしてください。
現在、Chatlunaプロジェクトチームの生産能力は非常に少なく、次の目標を達成するための生産能力はこれ以上ありません。
プルリクエストを送信したり、話し合うことをお勧めします。あなたの貢献は大歓迎です!
このプロジェクトは、Chatlunalabによって開発されました。
Chatluna(以下、このプロジェクトと呼ばれる)は、大規模な言語モデルに基づいたダイアログロボットフレームワークです。私たちは、オープンソースコミュニティと協力して、大規模なモデルテクノロジーの開発を促進することに取り組んでいます。開発者や他のユーザーに、このプロジェクトのフレームワークとコード(およびコミュニティが促進するこのプロジェクトに基づく他のデリバティブ)および関連するデリバティブの枠組みとコードを確保するために、オープンソース契約を遵守するよう強く呼びかけ、国と社会に害を及ぼす可能性のある目的には使用されていません。
このプロジェクトは、生成的人工知能サービスのサポートを直接提供するものではなく、ユーザーは生産人工知能サービスを提供する組織または個人から使用されるアルゴリズムAPIを取得する必要があります。
このプロジェクトを使用している場合は、ローカルエリアの法律と規制に従い、ローカルエリアで利用可能な生産人工知能サービスアルゴリズムを使用してください。
このプロジェクトは、アルゴリズムによって生成された結果について責任を負いません。すべての結果と操作はユーザーの責任です。
このプロジェクトの関連情報ストレージはすべてユーザーによって供給されており、プロジェクト自体は直接情報ストレージを提供していません。
このプロジェクトでは、データセキュリティ、ユーザーによる世論のリスク、またはあらゆるモデルの誤解を招く、虐待、普及、または不適切な使用に起因するリスクや責任を想定していません。
このプロジェクトは、それを書く際に他のオープンソースプロジェクトを参照しています。また、次のプロジェクトに感謝します。
Koishi-Plugin-Openai
node-chatgpt-api
Poe-api
吟遊詩人
Chathub
このプロジェクトにWebStormなどのIDEの無料オープンソースライセンスを提供してくれたJetBrainsに感謝します。
