Проект Chatgpt-on-WeChat (Cow)-это крупный робот для интеллектуального диалога, который поддерживает официальные учетные записи WeChat, приложения Enterprise WeChat, Feishu и Dingtalk Access. Linkai/Chatglm/Kimi/Wenxin yiyan/iflytek/tongyi Qianwen/linkai может обрабатывать текст, голос и изображения, доступ к внешним ресурсам, таким как операционная система и Интернет через плагины, и поддержать индивидуальное ИИ на основе собственной базы знаний . приложение.
Последняя версия поддерживает функции следующим образом:
Демо-видео: https://cdn.link-ai.tech/doc/cow_demo.mp4
Добавьте небольшого помощника в WeChat, чтобы присоединиться к группе проектов с открытым исходным кодом:
Linkai-это универсальная платформа приложений для AI для предприятий и разработчиков, агрегация мультимодальных крупных моделей, базы знаний, плагины агента, рабочие процессы и другие возможности, поддерживая доступ к основным платформам и управление их, поддерживая SaaS и приватизированное развертывание. Несколько режимов.
Linkai накопил богатые решения AI в операциях с частной доменной, интеллектуальной поддержкой клиентов, ассистентом по эффективности предприятия и другими сценариями, и накопил лучшие методы для крупномасштабных применений в различных отраслях, таких как электронная коммерция, культура и образование, здоровье, новое потребление и технологическое производство.
Корпоративные услуги и консультирование по продукту свяжитесь с консультантом по продукту:
2024.10.31: Улучшение стабильности программы в версии 1.7.3, Функции базы данных, оптимизация модели Claud
2024.09.26: Версия 1.7.2 и версия 1.7.1, Iflytek и другие модели Оптимизация, модели O1, сценарии быстрого установки и управления
2024.08.02: модель iflytek 4.0, дисплей источника базы знаний и связанную оптимизацию плагинов в версии 1.7.0
2024.07.19: Версия 1.6.9 Добавляет модель GPT-4O-Mini, распознавание голоса Alibaba и оптимизация маршрутизации канала приложения Qiwei
2024.07.05: Версия 1.6.8 и версия 1.6.7, Claude3.5, Gemini 1.5 Pro, Minimax Model, ввод картины рабочего процесса, улучшение списка моделей
2024.06.04: 1.6.6 и 1,6,5 версии, модель GPT-4O, потоковые карты Dingtalk, распознавание голоса iflytek
2024.04.26: Версия 1.6.0, добавление доступа KIMI, обновление версии GPT-4-Turbo, краткое изложение файла и задача распознавания голоса
2024.03.26: Версия 1.5.8 и версия 1.5.7, новые модели GLM-4 и Claude-3, поддержка Voice Edge-TTS
2024.01.26: 1.5.6 версия и версия 1.5.5, доступ к Dingtalk, обновление плагина для инструментов, 4-Турбо-модель обновление
2023.11.11: версия 1.5.3 и версия 1.5.4, добавив модель Tongyi Qianwen и Google Gemini
2023.11.10: Версия 1.5.2, добавление канала Фейшу, диалог распознавания изображений и конфигурация черного списка
2023.11.10: Версия 1.5.0, Новый
gpt-4-turbo,dall-e-3, Доступ моделиttsи мультимодальные возможности понимания изображений и поколения речи и поколения улучшаются
2023.10.16: поддерживает плагины, такие как поиск сети Linkai, математический расчет, доступ к веб-сайту через идентификацию намерения, см. Документ плагина
2023.09.26: плагин добавляет функции сводки и диалога по ссылкам файла/статьи.
2023.08.08: доступ к модели Baidu Wenxin Yiyan и поддержке Midjourney Branging через плагин
2023.06.12: Подключитесь к платформе Linkai, вы можете создать онлайн -базу знаний домена и создать эксклюзивного робота по обслуживанию клиентов. Используйте документ справочного доступа.
Просмотреть более ранние журналы обновлений: журналы архива
Быстро запустить подробную документацию: строительство проекта
Быстрый сценарий установки, подробные инструкции по использованию: сценарий запуска установки на один щелчок
bash <( curl -sS https://cdn.link-ai.tech/code/cow/install.sh )Проект использует интерфейс OpenAI по умолчанию. в проекте позже. Интерфейс требует зарубежного доступа к сети и платежных карт.
Модель диалога по умолчанию-GPT-3,5-Turbo от OpenAI, которая потребляет 0,002 долл. США за 1000 токенов (около 750 английских слов или 500 китайских иероглифов, включая запросы и ответы).
Проект также поддерживает использование интерфейса Linkai и не требует агента. , рабочий процесс и другие возможности. Измените конфигурацию и используйте ее одним щелчком, см. Документ.
Поддерживает системы Linux, MacOS и Windows (могут работать на серверах Linux в течение длительного времени), и Python должен быть установлен.
Рекомендуется, чтобы версия Python была от 3,7.1 и 3.9.x, а версия 3.8.
ПРИМЕЧАНИЕ. Развертывание Docker или железной дороги не требует установки среды Python и загрузки исходного кода, и вы можете перенести напрямую в следующий раздел.
(1) Клонирование кода проекта:
git clone https://github.com/zhayujie/chatgpt-on-wechat
cd chatgpt-on-wechat/Примечание. Если вы столкнетесь с проблемами сети, вы можете выбрать домашнее зеркало https://gitee.com/zhayujie/chatgpt-on-wechat
(2) Установить основные зависимости (требуется):
Возможность создавать роботов с использованием
itchatи иметь минимальный набор зависимостей, необходимых для возможностей текстовой связи.
pip3 install -r requirements.txt(3) Расширить зависимости (необязательная, рекомендуемая установка):
pip3 install -r requirements-optional.txtЕсли установка зависимостей не удается, прокомментируйте соответствующую строку, прежде чем продолжить
Шаблон файла конфигурации находится config.json корневом каталоге config-template.json .
cp config-template.json config.json Затем заполните конфигурацию в config.json .
# config.json文件内容示例
{
" model " : " gpt-3.5-turbo " , # 模型名称, 支持 gpt-3.5-turbo, gpt-4, gpt-4-turbo, wenxin, xunfei, glm-4, claude-3-haiku, moonshot
" open_ai_api_key " : " YOUR API KEY " , # 如果使用openAI模型则填入上面创建的 OpenAI API KEY
" open_ai_api_base " : " https://api.openai.com/v1 " , # OpenAI接口代理地址
" proxy " : " " , # 代理客户端的ip和端口,国内环境开启代理的需要填写该项,如 "127.0.0.1:7890"
" single_chat_prefix " : [ " bot " , " @bot " ], # 私聊时文本需要包含该前缀才能触发机器人回复
" single_chat_reply_prefix " : " [bot] " , # 私聊时自动回复的前缀,用于区分真人
" group_chat_prefix " : [ " @bot " ], # 群聊时包含该前缀则会触发机器人回复
" group_name_white_list " : [ " ChatGPT测试群" , " ChatGPT测试群2 " ], # 开启自动回复的群名称列表
" group_chat_in_one_session " : [ " ChatGPT测试群" ], # 支持会话上下文共享的群名称
" image_create_prefix " : [ "画" , "看" , "找" ], # 开启图片回复的前缀
" conversation_max_tokens " : 1000, # 支持上下文记忆的最多字符数
" speech_recognition " : false, # 是否开启语音识别
" group_speech_recognition " : false, # 是否开启群组语音识别
" voice_reply_voice " : false, # 是否使用语音回复语音
" character_desc " : "你是基于大语言模型的AI智能助手,旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。 " , # 人格描述
# 订阅消息,公众号和企业微信channel中请填写,当被订阅时会自动回复,可使用特殊占位符。目前支持的占位符有{trigger_prefix},在程序中它会自动替换成bot的触发词。
" subscribe_msg " : "感谢您的关注!n这里是ChatGPT,可以自由对话。n支持语音对话。n支持图片输出,画字开头的消息将按要求创作图片。n支持角色扮演和文字冒险等丰富插件。n输入{trigger_prefix}#help 查看详细指令。 " ,
" use_linkai " : false, # 是否使用LinkAI接口,默认关闭,开启后可国内访问,使用知识库和MJ
" linkai_api_key " : " " , # LinkAI Api Key
" linkai_app_code " : " " # LinkAI 应用或工作流code
}Инструкции по конфигурации:
1. Личный чат
single_chat_prefix (если вам не нужен триггер префикса, вы можете заполнить "single_chat_prefix": [""] )single_chat_reply_prefix [BOT]» "single_chat_reply_prefix": "" чтобы различить реальных людей.2. Групповой чат
group_name_white_list чтобы включить автоматические ответы группового чата. Если вы хотите вступить в силу во всех групповых чатах, вы можете напрямую заполнить "group_name_white_list": ["ALL_GROUP"]group_chat_prefixgroup_name_keyword_white_list поддерживает нечеткие имена групп сопоставления, в то время как элемент конфигурации group_chat_keyword поддерживает нечеткое содержимое сообщения группы, а использование такое же, как и вышеуказанные элементы конфигурации. (Внесен Evolay)group_chat_in_one_session : MAKE Групповые чаты Поделитесь контекстом сеанса, и конфигурация ["ALL_GROUP"] будет использоваться для всех групповых чатов3. распознавание голоса
"speech_recognition": true обеспечит распознавание голоса. Он автоматически ответит на все голоса."group_speech_recognition": true будет включать в себя распознавание группы речи. рисунок);"voice_reply_voice": true включит голос голоса (как частный чат, так и групповой чат)4. Другие конфигурации
model : название модели, в настоящее время поддерживает gpt-3.5-turbo , gpt-4o-mini , gpt-4o , gpt-4 , wenxin , claude , gemini , glm-4 , xunfei , moonshot и т. Д. Для всех имен моделейtemperature , frequency_penalty , presence_penalty : Параметры интерфейса API Chat, обратитесь к официальной документации Openai для получения подробной информации.proxy : Поскольку интерфейс openai в настоящее время недоступен в Китае, вам необходимо настроить адрес прокси -клиента.image_create_prefixconfig.py Полемconversation_max_tokens : представляет максимальное количество слов в контексте, которые можно запомнить (один вопрос и ответ - это группа разговоров. Если накопленное количество слов в разговоре превышает предел, первая группа разговоров будет удалена сначала)rate_limit_chatgpt , rate_limit_dalle : максимальная скорость вопросов и ответов в минуту, скорость рисования, очередь и обработка в порядке после ускорения.clear_memory_commands : команды в диалоге, активно очистить предыдущую память и настраивать псевдоним команды для строковых массивов.hot_reload : После выхода программы временное хранилище равно состоянию и по умолчанию закрыто.character_desc сохраняет отрывок, который вы сказали роботу, он запомнит этот отрывок и послужит его обстановкой, и вы можете настроить любую личность для него (см. В этом вопросе, чтобы получить дополнительную информацию о контексте разговора)subscribe_msg : Пожалуйста, заполните подписку, официальную учетную запись и канал Enterprise WeChat. В настоящее время поддерживаемыми заполнителями являются {trigger_prefix}, который будет автоматически заменен на триггерное слово бота в программе.5. Конфигурация Linkai (необязательно)
use_linkai : использовать ли интерфейс Linkai, к нему можно получить доступ в Китае после его открытия, используйте базу знаний и живопись Midjourney , справочные документыlinkai_api_key : Linkai API -ключ, может быть создан в консолиlinkai_app_code : приложение Linkai или код рабочего процесса, необязательный Этот документ не может быть обновлен во времени, и все необязательные элементы конфигурации перечислены в этом config.py .
Если машина разработки работает локально , выполните его непосредственно в каталоге Project Root:
python3 app.py # windows环境下该命令通常为 python app.pyПосле того, как терминал выводит QR-код, сканируйте код для входа в систему. При выводе «start auto replying» это означает, что программа автоматического ответа была успешно выполнена (примечание: учетная запись, используемая для ведения журнала, чтобы завершить реальное имя Аутентификация в месте оплаты). После сканирования кода для входа в систему ваша учетная запись становится роботом.
Используйте команду NOHUP, чтобы запустить программу в фоновом режиме:
nohup python3 app.py & tail -f nohup.out # 在后台运行程序并通过日志输出二维码После сканирования кода ctrl+c входа в систему программа может работать на фоне сервера. Используйте ps -ef | grep app.py | grep -v grep kill После того, как журнал закрыт, если вы хотите снова открыть, просто введите tail -f nohup.out . Кроме того, есть scripts для работы в одном клике и закрытии программы для использования в каталоге сценариев.
Поддержка с несколькими докладами: скопируйте несколько копий проекта, запустите программу отдельно и используйте различные учетные записи для сканирования кода для входа в систему для достижения одновременной работы.
Специальная команда: пользователь отправляет #Reset роботу, чтобы очистить контекстную память пользователя.
Использование Docker для развертывания не требует загрузки исходного кода и зависимостей установки, вам необходимо только получить файл конфигурации Docker-compose.yml и запустить контейнер.
Предпосылка состоит в том, что
dockerdocker -vDockerdocker-compose versiondocker-composeдолжны быть установлены. скачать.
(1) Загрузите файл docker-compose.yml
wget https://open-1317903499.cos.ap-guangzhou.myqcloud.com/docker-compose.yml После завершения загрузки откройте docker-compose.yml чтобы изменить требуемую конфигурацию, такую как OPEN_AI_API_KEY и GROUP_NAME_WHITE_LIST и т. Д.
(2) Запустите контейнер
Запустите следующую команду в каталоге, где docker-compose.yml находится для запуска контейнера:
sudo docker compose up -d Запуск sudo docker ps может просматривать контейнеры с именами Chatgpt-on-WeChat, что означает успешный запуск.
Уведомление:
docker-compose является версией 1.x, вам нужно выполнить sudo docker-compose up -d чтобы запустить контейнерНаконец, запустите следующую команду, чтобы просмотреть журнал запуска контейнера, сканируйте QR -код в журнале, чтобы завершить журнал:
sudo docker logs -f chatgpt-on-wechat(3) Использование плагина
config.json вам chatgpt-on-wechat изменить конфигурацию плагина в контейнере Docker, вы можете завершить ее docker-compose.yml установив ее. В docker-compose.yml добавить volumes отображения в разделе chatgpt-on-wechat :
volumes:
- ./config.json:/app/plugins/config.json
Железная дорога предлагает бесплатные квоты в размере 5 долларов в месяц и до 500 часов. (Обновление 07.11: большинство учетных записей больше не доступны бесплатно)
Deploy Now .open_ai_api_key , character_desc .Развертывание одного клика:
FAQS: https://github.com/zhayujie/chatgpt-on-wechat/wiki/faqs
Или напрямую проконсультируйтесь с помощником проекта в Интернете (корпус постоянно улучшается, и ответ только для справки)
Добро пожаловать, чтобы получить доступ к дополнительным приложениям, обратитесь к коду терминала, чтобы реализовать логику приема и отправки сообщений для доступа. В то же время можно добавить новые плагины.
Добро пожаловать, чтобы отправить PR, проблемы и звезду за поддержку. Если вы сталкиваетесь с проблемами, когда программа работает, вы можете просмотреть список часто задаваемых вопросов, а затем перейти к проблемам для поиска. Отдельные разработчики могут присоединиться к группе Exchange с открытым исходным кодом для участия в дополнительных дискуссиях, и корпоративные пользователи могут связаться с консультантами по продуктам для консультаций.