ChatGpt-on-Wechat(COW)プロジェクトは、WeChatの公式アカウント、Enterprise Wechat Applications、Feishu、およびDingTalkアクセスをサポートする大規模なモデルベースのインテリジェントダイアログロボットです。 linkai/chatglm/kimi/wenxin yiyan/iflytek/tongyi qianwen/linkaiは、テキスト、音声、写真を処理し、プラグインを介してオペレーティングシステムやインターネットなどの外部リソースにアクセスし、独自の知識ベースに基づいてカスタマイズされたエンタープライズAIをサポートできます。 。 応用。
最新バージョンは、次のように機能をサポートしています。
デモビデオ:https://cdn.link-ai.tech/doc/cow_demo.mp4
WeChatに小さなアシスタントを追加して、オープンソースプロジェクトExchange Groupに参加してください。
Linkaiは、企業と開発者向けのワンストップAIアプリケーションプラットフォームであり、マルチモーダルの大型モデル、知識ベース、エージェントプラグイン、ワークフロー、その他の機能を集約し、主流のプラットフォームへのワンクリックアクセスをサポートし、それらを管理し、SaaSと民営化された展開をサポートします。複数のモード。
Linkaiは、プライベートドメインオペレーション、インテリジェントカスタマーサービス、エンタープライズ効率アシスタント、その他のシナリオに豊富なAIソリューションを蓄積し、eコマース、文化、教育、健康、新しい消費など、さまざまな業界で大規模なアプリケーションのベストプラクティスを蓄積しました。 、およびテクノロジーの製造。
エンタープライズサービスと製品コンサルタント製品コンサルタントにお問い合わせください:
2024.10.31:バージョン1.7.3、データベース関数、Claudeモデルの最適化、Linkaiプラグインの最適化、オフライン通知のプログラム安定性の改善
2024.09.26:バージョン1.7.2およびバージョン1.7.1、Iflytekおよびその他のモデルの最適化、O1モデル、クイックインストールおよび管理スクリプト
2024.08.02: Iflytek 4.0モデル、ナレッジベースの引用ソースディスプレイ、および関連するプラグインの最適化バージョン1.7.0
2024.07.19:バージョン1.6.9 GPT-4O-MINIモデル、Alibaba Voice認識、およびQIWEIアプリケーションチャネルルーティング最適化を追加
2024.07.05:バージョン1.6.8およびバージョン1.6.7、Claude3.5、Gemini 1.5 Pro、Minimaxモデル、ワークフロー画像入力、モデルリストの改善
2024.06.04: 1.6.6および1.6.5バージョン、GPT-4Oモデル、DingTalkストリーミングカード、Iflytek音声認識/合成
2024.04.26:バージョン1.6.0、Kimiアクセスの追加、GPT-4ターボバージョンのアップグレード、ファイルの概要、音声認識の問題の修正
2024.03.26:バージョン1.5.8およびバージョン1.5.7、新しいGLM-4およびClaude-3モデル、Edge-TTS音声サポート
2024.01.26: 1.5.6バージョンと1.5.5バージョン、DingTalkアクセス、ツールプラグインのアップグレード、4ターボモデルアップデート
2023.11.11:バージョン1.5.3およびバージョン1.5.4、Tongyi QianwenモデルとGoogle Geminiの追加
2023.11.10:バージョン1.5.2、Feishuチャネルの追加、画像認識の対話、およびブラックリスト構成
2023.11.10:バージョン1.5.0、新しい
gpt-4-turbo、dall-e-3、ttsモデルアクセスが追加され、画像理解と生成のマルチモーダル機能、音声認識、生成が改善されます
2023.10.16: Linkaiネットワーク検索、数学計算、意図識別によるWebアクセスなどのプラグインをサポートします。プラグインドキュメントを参照してください
2023.09.26:プラグインは、ファイル/記事のリンクのリファレンスのワンクリックの概要とダイアログ関数を追加します
2023.08.08: Baidu Wenxin Yiyanモデルへのアクセスとプラグインを介したMidjourneyの描画をサポート
2023.06.12: Linkaiプラットフォームに接続すると、オンラインでドメインナレッジベースを作成し、排他的なカスタマーサービスロボットを作成できます。参照アクセスドキュメントを使用します。
以前の更新ログを表示:アーカイブログ
詳細なドキュメントをすばやく開始します:プロジェクト構築文書
クイックインストールスクリプト、使用の詳細な手順:ワンクリックインストールスタートアップスクリプト
bash <( curl -sS https://cdn.link-ai.tech/code/cow/install.sh )このプロジェクトは、アカウントを作成した後、OpenAI登録ページにアクセスする必要があります後でプロジェクトで。インターフェイスには、海外のネットワークアクセスとクレジットカードの支払いが必要です。
デフォルトのダイアログモデルは、1000トークンあたり0.002ドルを消費するOpenAIのGPT-3.5-ターボです(イメージ生成は、絵に0.016ドルを消費するDell Eモデルを含む500個の中国文字です。
このプロジェクトは、Linkaiインターフェイスの使用もサポートしており、Kimi、Wenxin、GPT-3.5、GPT-4Oおよびその他のモデルを使用できません。 、ワークフローとその他の機能。構成を変更し、ワンクリックで使用し、アクセスドキュメントを参照してください。
Linux、MacOS、およびWindowsシステム(Linuxサーバーで長い間実行できます)をサポートし、 Pythonをインストールする必要があります。
Pythonバージョンは3.7.1〜3.9.xの間で、3.10以降は他のシステムで通常実行できるかどうかを推奨しています。
注:DockerまたはRailwayの展開では、Python環境のインストールとソースコードのダウンロードは必要ありません。次のセクションに直接早送りすることができます。
(1)プロジェクトコードのクローニング:
git clone https://github.com/zhayujie/chatgpt-on-wechat
cd chatgpt-on-wechat/注:ネットワークの問題が発生した場合、国内ミラーhttps://gitee.com/zhayujie/chatgpt-on-wechatを選択できます。
(2)コア依存関係をインストールする(必須):
itchatを使用してロボットを作成し、テキスト通信機能に必要な依存関係の最小セットを持つ機能。
pip3 install -r requirements.txt(3)依存関係を展開します(オプション、推奨されるインストール):
pip3 install -r requirements-optional.txt依存関係のインストールが失敗した場合、継続する前に対応する行にコメントしてください
構成ファイルのテンプレートは、root Directory config-template.json config.jsonあります。
cp config-template.json config.json次に、 config.jsonの構成を入力します。デフォルトの構成の説明は、必要に応じてカスタマイズおよび変更できます(完全なJSON形式を確保するためにコメントを削除してください):
# config.json文件内容示例
{
" model " : " gpt-3.5-turbo " , # 模型名称, 支持 gpt-3.5-turbo, gpt-4, gpt-4-turbo, wenxin, xunfei, glm-4, claude-3-haiku, moonshot
" open_ai_api_key " : " YOUR API KEY " , # 如果使用openAI模型则填入上面创建的 OpenAI API KEY
" open_ai_api_base " : " https://api.openai.com/v1 " , # OpenAI接口代理地址
" proxy " : " " , # 代理客户端的ip和端口,国内环境开启代理的需要填写该项,如 "127.0.0.1:7890"
" single_chat_prefix " : [ " bot " , " @bot " ], # 私聊时文本需要包含该前缀才能触发机器人回复
" single_chat_reply_prefix " : " [bot] " , # 私聊时自动回复的前缀,用于区分真人
" group_chat_prefix " : [ " @bot " ], # 群聊时包含该前缀则会触发机器人回复
" group_name_white_list " : [ " ChatGPT测试群" , " ChatGPT测试群2 " ], # 开启自动回复的群名称列表
" group_chat_in_one_session " : [ " ChatGPT测试群" ], # 支持会话上下文共享的群名称
" image_create_prefix " : [ "画" , "看" , "找" ], # 开启图片回复的前缀
" conversation_max_tokens " : 1000, # 支持上下文记忆的最多字符数
" speech_recognition " : false, # 是否开启语音识别
" group_speech_recognition " : false, # 是否开启群组语音识别
" voice_reply_voice " : false, # 是否使用语音回复语音
" character_desc " : "你是基于大语言模型的AI智能助手,旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。 " , # 人格描述
# 订阅消息,公众号和企业微信channel中请填写,当被订阅时会自动回复,可使用特殊占位符。目前支持的占位符有{trigger_prefix},在程序中它会自动替换成bot的触发词。
" subscribe_msg " : "感谢您的关注!n这里是ChatGPT,可以自由对话。n支持语音对话。n支持图片输出,画字开头的消息将按要求创作图片。n支持角色扮演和文字冒险等丰富插件。n输入{trigger_prefix}#help 查看详细指令。 " ,
" use_linkai " : false, # 是否使用LinkAI接口,默认关闭,开启后可国内访问,使用知识库和MJ
" linkai_api_key " : " " , # LinkAI Api Key
" linkai_app_code " : " " # LinkAI 应用或工作流code
}構成手順:
1。個人的なチャット
single_chat_prefixでトリガーする必要があります(プレフィックストリガーが必要ない場合は、 "single_chat_prefix": [""]を入力できます。 "single_chat_prefix": [""] ))"single_chat_reply_prefix": "" 「[ボット]」が付いていsingle_chat_reply_prefix 。2。グループチャット
group_name_white_listでグループ名を構成して、自動グループチャットの返信を有効にする必要があります。すべてのグループチャットに施行したい場合は、 "group_name_white_list": ["ALL_GROUP"]に直接入力できます。group_chat_prefixに対応しますgroup_name_keyword_white_list構成アイテムはファジーマッチンググループ名をサポートし、 group_chat_keyword構成アイテムはファジーマッチンググループメッセージコンテンツをサポートし、使用は上記の2つの構成アイテムと同じです。 eovolayによって貢献しました)group_chat_in_one_session :グループチャットをセッションコンテキストを共有するようにし、構成["ALL_GROUP"]すべてのグループチャットに使用されます3。音声認識
"speech_recognition": trueデフォルトでは、openaiのささやきモデルがテキストとして認識され、このパラメーターはプライベートチャットのみをサポートしています。すべての声に自動的に返信します。"group_speech_recognition": trueは、デフォルトでグループのスピーチ認識を有効にします。描画);"voice_reply_voice": true音声返信音声を有効にします(プライベートチャットとグループチャットの両方)4。その他の構成
model :モデル名は現在、 gpt-3.5-turbo 、 gpt-4o-mini 、 gpt-4o 、 gpt-4 、 wenxin 、 claude 、 gemini 、 glm-4 、 xunfei 、 moonshotなどをサポートしています。すべてのモデル名temperature 、 frequency_penalty 、 presence_penalty :Chat APIインターフェイスパラメーター、詳細については、公式Openaiのドキュメントを参照してください。proxy : openaiインターフェイスは現在、中国ではアクセスできないため、詳細については、#351を参照してくださいimage_create_prefixconfig.pyのこのプロジェクトで構成可能なパラメーターを確認できます。 。conversation_max_tokens :記憶に残るコンテキストの最大単語の数を表します(1つの質問と回答は会話のグループです。会話の蓄積された単語の数が限界を超えた場合、最初に会話の最初のグループが削除されます)rate_limit_chatgpt 、 rate_limit_dalle :1分あたりの最大Q&Aレート、描画レート、キューアップ、スピード違反後に順番に処理します。clear_memory_commands :in-dialogueコマンド、以前のメモリを積極的にクリアし、文字列配列のコマンドエイリアスをカスタマイズします。hot_reload :プログラムが終了した後、一時的なストレージはステータスに等しく、デフォルトで閉じられます。character_desc構成は、あなたがロボットに言った文章を保存します。彼はこのパッセージを覚えていて、彼の設定として機能し、彼の性格をカスタマイズすることができます(会話のコンテキストの詳細については、この問題を参照してください)subscribe_msg :サブスクリプションメッセージ、公式アカウント、およびwechatチャンネルを自動的に返信し、特別なプレースホルダーを使用できます。現在サポートされているプレースホルダーは{trigger_prefix}であり、プログラムのトリガーボットの単語に自動的に置き換えられます。5.Linkai構成(オプション)
use_linkai :linkaiインターフェイスを使用するかどうかにかかわらず、中国でアクセスできますMidjourneylinkai_api_key :linkai apiキーはコンソールで作成できますlinkai_app_code :linkaiアプリケーションまたはワークフローコード、オプションこのドキュメントは時間内に更新されない場合があり、現在オプションのすべての構成アイテムはこのconfig.pyにリストされています。
開発マシンがローカルで実行されている場合は、プロジェクトルートディレクトリで直接実行します。
python3 app.py # windows环境下该命令通常为 python app.py端末がQRコードを出力した後、コードをスキャンしてログインします。「自動応答を開始する」出力を出力すると、自動応答プログラムが正常に実行されたことを意味します(注:ログに使用されるアカウントが実際に完了したために必要なアカウントが必要です支払い場所での認証)。コードをスキャンしてログインすると、携帯電話の設定されたキーワードを介して自動返信をトリガーできます(友人は自分にメッセージを送信するか、自分の友人にメッセージを送信します)。
Nohupコマンドを使用して、バックグラウンドでプログラムを実行します。
nohup python3 app.py & tail -f nohup.out # 在后台运行程序并通过日志输出二维码コードをスキャンしてログインした後、この時点でプログラムはctrl+cを介して閉じることができます。 ps -ef | grep app.py | grep -v grepを使用してkill 。ログが閉じた後、再び開きたい場合は、 tail -f nohup.outを入力してください。さらに、Scripts Directoryで使用するプログラムをワンクリック実行して閉じるためのscriptsがあります。
マルチアカウントサポート:プロジェクトの複数のコピーをコピーし、プログラムを個別に開始し、異なるアカウントを使用してコードをスキャンしてログインして同時操作を実現します。
特別なコマンド:ユーザーは#resetをロボットに送信して、ユーザーのコンテキストメモリをクリアします。
Dockerを使用して展開するには、ソースコードとインストール依存関係をダウンロードする必要はありません。Docker-Compose.yml構成ファイルを取得してコンテナを起動するだけです。
前提は、
dockerとdocker-composedocker-compose versiondocker -vする必要があることです。ダウンロード。
(1)docker-compose.ymlファイルをダウンロードします
wget https://open-1317903499.cos.ap-guangzhou.myqcloud.com/docker-compose.ymlダウンロードが完了したら、 OPEN_AI_API_KEYやGROUP_NAME_WHITE_LISTなど、必要な構成を変更するためにdocker-compose.ymlを開きます。
(2)コンテナを起動します
docker-compose.ymlコンテナを起動するために配置されているディレクトリで次のコマンドを実行します。
sudo docker compose up -d sudo docker psを実行すると、名前がchatgpt-on-wechatの名前が付いたコンテナを表示できます。これは、正常に実行されることを意味します。
知らせ:
docker-composeが1.xバージョンの場合、 sudo docker-compose up -dを実行してコンテナを起動する必要があります最後に、次のコマンドを実行してコンテナ実行ログを表示し、ログのQRコードをスキャンしてログを完成させます。
sudo docker logs -f chatgpt-on-wechat(3)プラグインの使用
Dockerコンテナのプラグイン構成を変更する必要がある場合は、プラグイン構成ファイルをconfig.jsonに変更して、 docker-compose.ymlと同じchatgpt-on-wechatに配置できます。 docker-compose.ymlでchatgpt-on-wechatセクションの下にvolumesマッピングを追加します。
volumes:
- ./config.json:/app/plugins/config.json
鉄道は、月額5ドルと最大500時間の無料クォータを提供しています。 (更新07.11:ほとんどのアカウントは無料で利用できなくなりました)
Deploy Nowボタンをクリックします。open_ai_api_key 、 character_descなど、実行中のプログラムのパラメーターをオーバーロードします。ワンクリック展開:
FAQ:https://github.com/zhayujie/chatgpt-on-wechat/wiki/faqs
または、オンラインでプロジェクトアシスタントに直接相談してください(コーパスは継続的に改善されており、返信は参照のみです)
より多くのアプリケーションをアクセスするには、ターミナルコードを参照して、アクセスにメッセージを受信して送信するロジックを実装してください。 同時に、新しいプラグインを追加してください。プラグインの指示を参照してください。
PR、Issues、Starのサポートを提出することを歓迎します。プログラムが実行されたときに問題が発生した場合、FAQのリストを表示してから、問題に移動して検索できます。個々の開発者は、オープンソース交換グループに参加して、より多くの議論に参加でき、企業ユーザーは製品コンサルタントに相談して相談することができます。