Das Chatgpt-on-Wechat (Cow) -Projekt ist ein großer modellbasierter intelligenter Dialogroboter, der offizielle WeChat-Konten, Enterprise Wechat-Anwendungen, Feishu und Dingtalk-Zugriff unterstützt. Linkai/chatglm/kimi/wenxin yiyan/iflytek/tongyi qianwen/linkai können Text, Sprache und Bilder verarbeiten, auf externe Ressourcen wie das Betriebssystem und das Internet über Plug-Ins zugreifen und angepasste Enterprise-KI unterstützen, die auf seiner eigenen Wissensbasis basieren . Anwendung.
Die neueste Version unterstützt Funktionen wie folgt:
Demo Video: https://cdn.link-ai.tech/doc/cow_demo.mp4
Fügen Sie WeChat einen kleinen Assistenten hinzu, um der Open Source Project Exchange Group beizutreten:
Linkai ist eine Ein-Stop-AI-Anwendungsplattform für Unternehmen und Entwickler, die multimodale große Modelle, Wissensbasis, Agenten-Plug-Ins, Workflows und andere Funktionen aggregiert, ein Klick-Zugriff auf Mainstream-Plattformen unterstützt und diese verwaltet, SaaS und privatisierte Bereitstellung unterstützt. Mehrere Modi.
Linkai hat Rich AI-Lösungen in privaten Domain-Operationen, intelligentem Kundendienst, Assistenten für Unternehmenseffizienz und anderen Szenarien angesammelt und die besten Praktiken für eine große Anwendung in verschiedenen Branchen wie E-Commerce, Kultur und Bildung, Gesundheit, neuer Verbrauch gesammelt und technologische Herstellung.
Enterprise Services und Produktberatungsunternehmen Kontakt einen Produktberater:
2024.10.31: Verbesserung der Programmstabilität in Version 1.7.3, Datenbankfunktionen, Claude-Modelloptimierung, Linkai-Plug-in-Optimierung, Offline-Benachrichtigungen
2024.09.26: Version 1.7.2 und Version 1.7.1, Iflytek und andere Modelle Optimierung, O1 -Modelle, Schnellinstallation und Verwaltungsskripte
2024.08.02: IFLYTEK 4.0-Modell, Ausschreibung von Wissensbasiszitat und zugehörige Plug-in-Optimierung in Version 1.7.0
2024.07.19: Version 1.6.9 fügt GPT-4O-Mini-Modell, Alibaba-Spracherkennung und Qiwei Application Channel Routing-Optimierung hinzu
2024.07.05: Version 1.6.8 und Version 1.6.7, Claude3.5, Gemini 1.5 Pro, Minimax -Modell, Workflow -Bildeingabe, Modelllistenverbesserung
2024.06.04: 1,6.6 und 1.6.5 Versionen, GPT-4O-Modell, Dingtalk-Streaming-Karten, Iflytek-Spracherkennung/Synthese
2024.04.26: Version 1.6.0, Hinzufügen von Kimi Access, GPT-4-Turbo-Version Upgrade, Dateiübersicht und Spracherkennungsproblem beheben
2024.03.26: Version 1.5.8 und Version 1.5.7, neue Modelle GLM-4 und Claude-3, Edge-TTS-Sprachunterstützung
2024.01.26: 1.5.6 Version und 1.5.5 Version, Dingtalk Access, Tool-Plug-In-Upgrade, 4-Turbo-Modell-Update
2023.11.11: Version 1.5.3 und Version 1.5.4, Hinzufügen des Tongyi Qianwen -Modells und Google Gemini
2023.11.10: Version 1.5.2, Hinzufügen von Feishu -Kanal, Bilderkennungsdialog und Blacklist -Konfiguration
2023.11.10: Version 1.5.0, neuer
gpt-4-turbo,dall-e-3,ttsModellzugriff werden hinzugefügt, und multimodale Funktionen des Bildverständnisses & Generation, Spracherkennung und -generation werden verbessert
2023.10.16: Unterstützt Plug-Ins wie Linkai-Netzwerksuche, mathematische Berechnung, Webzugriff durch Intent Identification finden Sie im Plug-in-Dokument
2023.09.26: Das Plug-In fügt eine Zusammenfassung und Dialogfunktionen von Datei-/Artikel-Links hinzu.
2023.08.08: Zugriff auf das Modell von Baidu Wenxin Yiyan und Support MidJourney Zeichnung durch Plug-In
2023.06.12: Stellen Sie eine Verbindung zur Linkai -Plattform her, die Sie online eine Domain -Wissensbasis erstellen und einen exklusiven Kundendienstroboter erstellen können. Verwenden Sie das Referenzzugriffsdokument.
Frühere Aktualisierungsprotokolle anzeigen: Archivprotokolle
Beginnen Sie schnell eine detaillierte Dokumentation: Projektkonstruktionsdokumentation
Schnellinstallationsskript, detaillierte Anweisungen für die Verwendung: One-Click-Installationsstartskript
bash <( curl -sS https://cdn.link-ai.tech/code/cow/install.sh )Das Projekt verwendet standardmäßig die OpenAI -Schnittstelle. im Projekt später. Die Schnittstelle erfordert den Übersee -Netzwerkzugriff und die Kreditkartenzahlung.
Das Standarddialogmodell ist OpenAIs GPT-3,5-Turbo, das 0,002 USD pro 1000-Token verbraucht (ca. 750 englische Wörter oder 500 chinesische Zeichen, einschließlich Anfragen und Antworten).
Das Projekt unterstützt auch die Verwendung der Linkai-Schnittstelle und benötigt keinen Agenten. , Workflow und andere Funktionen. Ändern Sie die Konfiguration und verwenden Sie sie mit einem Klick. Weitere Informationen finden Sie im Zugriffsdokument.
Unterstützt Linux-, MacOS- und Windows -Systeme (können lange Zeit auf Linux -Servern ausgeführt werden), und Python muss installiert werden.
Es wird empfohlen, dass die Python -Version zwischen 3.7 und 3.9.
HINWEIS: Die Bereitstellung von Docker oder Railway erfordert nicht die Installation der Python -Umgebung und das Herunterladen des Quellcodes.
(1) Klonen des Projektcodes:
git clone https://github.com/zhayujie/chatgpt-on-wechat
cd chatgpt-on-wechat/Hinweis: Wenn Sie auf Netzwerkprobleme stoßen, können Sie heimische Spiegel https://gitee.com/zhayujie/chatgpt-on-wechat wählen
(2) Kernabhängigkeiten installieren (erforderlich):
Fähigkeit, Roboter mit
itchatzu erstellen und die für Textkommunikationsfunktionen erforderlichen Abhängigkeiten zu haben.
pip3 install -r requirements.txt(3) Abhängigkeiten erweitern (optionale, empfohlene Installation):
pip3 install -r requirements-optional.txtWenn eine Abhängigkeitsinstallation fehlschlägt, kommentieren Sie die entsprechende Zeile, bevor Sie fortfahren
Die Vorlage der Konfigurationsdatei befindet sich config.json Root-Verzeichnis config-template.json .
cp config-template.json config.json Füllen Sie dann die Konfiguration in config.json ein.
# config.json文件内容示例
{
" model " : " gpt-3.5-turbo " , # 模型名称, 支持 gpt-3.5-turbo, gpt-4, gpt-4-turbo, wenxin, xunfei, glm-4, claude-3-haiku, moonshot
" open_ai_api_key " : " YOUR API KEY " , # 如果使用openAI模型则填入上面创建的 OpenAI API KEY
" open_ai_api_base " : " https://api.openai.com/v1 " , # OpenAI接口代理地址
" proxy " : " " , # 代理客户端的ip和端口,国内环境开启代理的需要填写该项,如 "127.0.0.1:7890"
" single_chat_prefix " : [ " bot " , " @bot " ], # 私聊时文本需要包含该前缀才能触发机器人回复
" single_chat_reply_prefix " : " [bot] " , # 私聊时自动回复的前缀,用于区分真人
" group_chat_prefix " : [ " @bot " ], # 群聊时包含该前缀则会触发机器人回复
" group_name_white_list " : [ " ChatGPT测试群" , " ChatGPT测试群2 " ], # 开启自动回复的群名称列表
" group_chat_in_one_session " : [ " ChatGPT测试群" ], # 支持会话上下文共享的群名称
" image_create_prefix " : [ "画" , "看" , "找" ], # 开启图片回复的前缀
" conversation_max_tokens " : 1000, # 支持上下文记忆的最多字符数
" speech_recognition " : false, # 是否开启语音识别
" group_speech_recognition " : false, # 是否开启群组语音识别
" voice_reply_voice " : false, # 是否使用语音回复语音
" character_desc " : "你是基于大语言模型的AI智能助手,旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。 " , # 人格描述
# 订阅消息,公众号和企业微信channel中请填写,当被订阅时会自动回复,可使用特殊占位符。目前支持的占位符有{trigger_prefix},在程序中它会自动替换成bot的触发词。
" subscribe_msg " : "感谢您的关注!n这里是ChatGPT,可以自由对话。n支持语音对话。n支持图片输出,画字开头的消息将按要求创作图片。n支持角色扮演和文字冒险等丰富插件。n输入{trigger_prefix}#help 查看详细指令。 " ,
" use_linkai " : false, # 是否使用LinkAI接口,默认关闭,开启后可国内访问,使用知识库和MJ
" linkai_api_key " : " " , # LinkAI Api Key
" linkai_app_code " : " " # LinkAI 应用或工作流code
}Konfigurationsanweisungen:
1. persönlicher Chat
single_chat_prefix (wenn Sie den Präfix -Trigger nicht benötigen, können Sie "single_chat_prefix": [""] )"single_chat_reply_prefix": "" der Roboter -Antwort wird mit "[Bot]" zur Unterscheidung realer Personen single_chat_reply_prefix .2. Gruppenchat
group_name_white_list konfiguriert werden, um automatische Gruppen -Chat -Antworten zu aktivieren. Wenn Sie auf alle Gruppen -Chats wirksam werden möchten, können Sie direkt "group_name_white_list": ["ALL_GROUP"]group_chat_prefixgroup_name_keyword_white_list unterstützt Fuzzy -Matching -Gruppennamen, während das Konfigurationselement group_chat_keyword den Fuzzy -Matching -Gruppennachricht Inhalt unterstützt und die Verwendung über die oben genannten zwei Konfigurationselemente entspricht. (Beigetragen von Evolay)group_chat_in_one_session : Gruppen -Chats teilen einen Sitzungskontext, und die Konfiguration ["ALL_GROUP"] wird für alle Gruppen -Chats verwendet3.. Spracherkennung
"speech_recognition": true ermöglicht die Spracherkennung. Es wird automatisch auf alle Stimmen antworten."group_speech_recognition": true wird die Gruppenrede ermöglichen. Zeichnung);"voice_reply_voice": true aktiviert die Sprachantworten (sowohl privater Chat als auch Gruppenchat)4. Andere Konfigurationen
model : Der Modellname unterstützt derzeit gpt-3.5-turbo , gpt-4o-mini , gpt-4o , gpt-4 , wenxin , claude , gemini , glm-4 , xunfei , moonshot usw., siehe Common/Const. Für alle Modellnamentemperature , frequency_penalty , presence_penalty : Parameter der Chat -API -Schnittstelle, finden Sie in der offiziellen OpenAI -Dokumentation für Einzelheiten.proxy : Da die openai -Schnittstelle derzeit in China unzugänglich ist, müssen Sie die Adresse des Proxy -Clients konfigurieren.image_create_prefixconfig.py konfiguriert werden können. .conversation_max_tokens : Repräsentiert die maximale Anzahl von Wörtern im Kontext, an die sich erinnert werden kann (eine Frage und Antwort sind eine Gruppe von Gesprächen. Wenn die akkumulierte Anzahl von Wörtern in der Konversation die Grenze überschreitet, wird die früheste Gruppe von Gesprächen zuerst entfernt).rate_limit_chatgpt , rate_limit_dalle : Maximale Q & A -Rate pro Minute, Zeichnungsrate, Warteschlange und Prozess nach der Beschleunigung.clear_memory_commands : Befehle in Dialogue, löschen Sie aktiv den vorherigen Speicher und passen Sie den Befehlsalias für String-Arrays an.hot_reload : Nach dem Ablauf des Programms entspricht der temporäre Speicher dem Status und standardmäßig geschlossen.character_desc -Konfiguration spart eine Passage, die Sie dem Roboter gesagt haben, er erinnert sich an diese Passage und dient als seine Einstellung, und Sie können jede Persönlichkeit für ihn anpassen (weitere Informationen zum Kontext der Konversation)subscribe_msg : Bitte geben Sie die Abonnementnachricht, das offizielle Konto und den Enterprise WeChat -Kanal ein. Derzeit unterstützte Platzhalter sind {trigger_prefix}, die automatisch durch das Trigger -Wort des Bots im Programm ersetzt werden.5.Linkai -Konfiguration (optional)
use_linkai : Unabhängig davon, ob die Linkai -Schnittstelle verwendet werden kann, kann nach Midjourney Öffnen in China zugegriffen werden.linkai_api_key : linkai API -Schlüssel kann in der Konsole erstellt werdenlinkai_app_code : Linkai -Anwendung oder Workflow -Code, optional Dieses Dokument wird möglicherweise nicht rechtzeitig aktualisiert, und alle derzeit optionalen Konfigurationselemente sind in dieser config.py aufgeführt.
Wenn die Entwicklungsmaschine lokal ausgeführt wird , führen Sie sie direkt im Projekt Root -Verzeichnis aus:
python3 app.py # windows环境下该命令通常为 python app.pyNachdem das Terminal den QR-Code ausgibt, scannen Sie den Code zum Anmeldung. Wenn Sie "automatisch antworten" ausgeben, wird dies erfolgreich ausgeführt Authentifizierung am Zahlungsort). Nach dem Scannen des Codes wird Ihr Konto zu einem Roboter.
Verwenden Sie den Befehl nohup, um das Programm im Hintergrund auszuführen:
nohup python3 app.py & tail -f nohup.out # 在后台运行程序并通过日志输出二维码Nach ctrl+c Scannen des Codes kann das Programm im Serverhintergrund ausgeführt werden. kill Sie ps -ef | grep app.py | grep -v grep Nachdem das Protokoll geschlossen ist, geben Sie, wenn Sie sich erneut öffnen möchten, einfach tail -f nohup.out ein. Darüber hinaus gibt es scripts für einen Klick, das das Programm für die Verwendung im Skriptverzeichnis ausführt und schließt.
Support für Multi-Account: Kopieren Sie mehrere Kopien des Projekts, starten Sie das Programm separat und verwenden Sie verschiedene Konten, um den Code zu scannen, um sich anzumelden, um den gleichzeitigen Betrieb zu erreichen.
Sonderbefehl: Der Benutzer sendet #Reset an den Roboter, um den Kontextspeicher des Benutzers zu löschen.
Wenn Sie Docker zum Bereitstellen verwenden, müssen Sie keinen Quellcode und die Installationsabhängigkeiten herunterladen.
Die Prämisse ist
docker -vdassdockerund Dockerdocker-compose versiondocker-composeinstalliert werden müssen. herunterladen.
(1) Laden Sie die Datei docker-compose.yml herunter
wget https://open-1317903499.cos.ap-guangzhou.myqcloud.com/docker-compose.yml Open docker-compose.yml nach Abschluss des Downloads, um die erforderliche Konfiguration zu GROUP_NAME_WHITE_LIST OPEN_AI_API_KEY z.
(2) Starten Sie den Behälter
Führen Sie den folgenden Befehl im Verzeichnis aus, in dem docker-compose.yml sich befindet, um den Container zu starten:
sudo docker compose up -d Durch das Ausführen von sudo docker ps kann Container mit Namen Chatgpt-on-Wechat anzeigen, was bedeutet, erfolgreich ausgeführt zu werden.
Beachten:
docker-compose 1.x-Version ist, müssen Sie sudo docker-compose up -d ausführen, um den Container zu startenFühren Sie schließlich den folgenden Befehl aus, um das Container -Auslaufprotokoll anzuzeigen. Scannen Sie den QR -Code im Protokoll, um das Protokoll zu vervollständigen:
sudo docker logs -f chatgpt-on-wechat(3) Plug-in-Verwendung
Wenn Sie die Plug-in-Konfiguration im Docker-Container ändern müssen, können Sie sie durch die Montage der Plug-in-Konfigurationsdatei in config.json in das gleiche Verzeichnis wie docker-compose.yml und chatgpt-on-wechat umbenennen. In docker-compose.yml fügen Sie volumes Mapping unter chatgpt-on-wechat hinzu:
volumes:
- ./config.json:/app/plugins/config.json
Die Eisenbahn bietet kostenlose Quoten von 5 USD pro Monat und bis zu 500 Stunden. (Update 07.11: Die meisten Konten sind nicht mehr kostenlos verfügbar)
Deploy Now .open_ai_api_key , character_desc .Ein-Klick-Bereitstellung:
FAQs: https://github.com/zhayujie/chatgpt-on-wechat/wiki/faqs
Oder konsultieren Sie direkt den Projektassistenten online (der Korpus wird kontinuierlich verbessert, und die Antwort lautet nur als Referenz).
Willkommen bei mehr Anwendungen, siehe Terminalcode, um die Logik des Empfangens und Sendens von Nachrichten zum Zugriff zu implementieren. Gleichzeitig können neue Plug-Ins hinzugefügt werden, um die Plug-in-Anweisungen zu finden.
Willkommen bei PR, Ausgaben und Stars zur Unterstützung. Wenn Sie beim Ausführen des Programms Probleme stoßen, können Sie die Liste der FAQs anzeigen und dann zu Problemen zur Suche gehen. Einzelne Entwickler können sich der Open Source Exchange -Gruppe anschließen, um an weiteren Diskussionen teilzunehmen, und Unternehmensnutzer können sich zur Konsultation an Produktberater wenden.