El proyecto ChatGPT-on-Wechat (COW) es un gran robot de diálogo inteligente basado en modelos que admite cuentas oficiales de WeChat, aplicaciones de WeChat Enterprise, Feishu y Dingtalk Access. Linkai/chatglm/kimi/wenxin yiyan/iflytek/tongyi qianwen/linkai puede procesar texto, voz e imágenes, acceder a recursos externos como el sistema operativo e Internet a través de complementos, y admitir IA empresarial personalizada basada en su propia base de conocimiento. . solicitud.
La última versión admite funciones de la siguiente manera:
Video de demostración: https://cdn.link-ai.tech/doc/cow_demo.mp4
Agregue un pequeño asistente a WeChat para unirse al grupo de intercambio de proyectos de código abierto:
Linkai es una plataforma de aplicación de IA única para empresas y desarrolladores, agregando modelos grandes multimodales, bases de conocimiento, complementos de agentes, flujos de trabajo y otras capacidades, admitiendo acceso único a las plataformas convencionales y administrándolos, admitiendo SaaS y despliegue privatizado. Múltiples modos.
Linkai ha acumulado ricas soluciones de IA en operaciones de dominio privado, servicio al cliente inteligente, asistente de eficiencia empresarial y otros escenarios, y ha acumulado las mejores prácticas para la aplicación a gran escala en diversas industrias, como el comercio electrónico, la cultura y la educación, la salud, el nuevo consumo y fabricación de tecnología.
Servicios empresariales y consultoría de productos Contacte a un consultor de productos:
2024.10.31: Mejora de la estabilidad del programa en la versión 1.7.3, funciones de base de datos, optimización del modelo de Claude, optimización del complemento de Linkai, notificaciones fuera de línea
2024.09.26: versión 1.7.2 y versión 1.7.1, iflytek y otros modelos optimización, modelos O1, instalación rápida y scripts de administración
2024.08.02: Modelo Iflytek 4.0, pantalla de fuente de citas de base de conocimiento y optimización de complementos relacionados en la versión 1.7.0
2024.07.19: la versión 1.6.9 agrega el modelo GPT-4O-Mini, el reconocimiento de voz de Alibaba y la optimización de enrutamiento de canal de aplicación Qiwei
2024.07.05: Versión 1.6.8 y versión 1.6.7, Claude3.5, Gemini 1.5 Pro, modelo Minimax, entrada de imagen de flujo de trabajo, Mejora de la lista de modelos
2024.06.04: versiones 1.6.6 y 1.6.5, modelo GPT-4O, tarjetas de transmisión Dingtalk, reconocimiento/síntesis de voz iflytek
2024.04.26: Versión 1.6.0, agregando acceso a Kimi, actualización de la versión GPT-4-TURBO, resumen de archivos y problemas de reconocimiento de voz
2024.03.26: versión 1.5.8 y versión 1.5.7, nuevos modelos GLM-4 y Claude-3, soporte de voz de Edge-TTS
2024.01.26: 1.5.6 versión y versión 1.5.5, acceso de Dingtalk, actualización de complemento de herramientas, actualización del modelo 4-turbo
2023.11.11: versión 1.5.3 y versión 1.5.4, agregando el modelo Tongyi Qianwen y Google Gemini
2023.11.10: Versión 1.5.2, Agregar canal Feishu, diálogo de reconocimiento de imágenes y configuración de la lista negra
2023.11.10: Versión 1.5.0, Se agrega nuevo
gpt-4-turbo,dall-e-3,ttsModel Access y se mejoran las capacidades multimodales de la comprensión y generación de imágenes, el reconocimiento y la generación de voz
2023.10.16: Admite complementos como la búsqueda de red de Linkai, el cálculo matemático, el acceso web a través de la identificación de la intención, consulte el documento de complemento
2023.09.26: El complemento agrega un resumen de un clic y las funciones de diálogo de los enlaces de archivo/artículo.
2023.08.08: Acceso al modelo Baidu Wenxin Yiyan y apoya el dibujo de MidJourney a través del complemento
2023.06.12: Conéctese a la plataforma Linkai, puede crear una base de conocimiento de dominio en línea y crear un robot exclusivo de servicio al cliente. Use el documento de acceso de referencia.
Ver registros de actualización anteriores: registros de archivos
Comience rápidamente la documentación detallada: documentación de construcción del proyecto
Script de instalación rápida, instrucciones detalladas para usar: script de inicio de instalación de un solo clic
bash <( curl -sS https://cdn.link-ai.tech/code/cow/install.sh )El proyecto utiliza la interfaz OpenAI de forma predeterminada. en el proyecto más tarde. La interfaz requiere acceso a la red en el extranjero y pago de tarjeta de crédito.
El modelo de diálogo predeterminado es el GPT-3.5-turbo de OpenAI, que consume $ 0.002 por 1000 tokens (alrededor de 750 palabras en inglés o 500 caracteres chinos, incluidas las solicitudes y las respuestas).
El proyecto también admite el uso de la interfaz Linkai y no requiere un agente. , flujo de trabajo y otras capacidades. Modifique la configuración y úsela con un solo clic, consulte el documento de acceso.
Admite sistemas Linux, MacOS y Windows (se puede ejecutar en servidores Linux durante mucho tiempo), y se requiere que se instale Python .
Se recomienda que la versión de Python esté entre 3.7.1 y 3.9.x, y se recomienda la versión 3.8.
Nota: Docker o la implementación ferroviaria no requiere la instalación del entorno Python y la descarga del código fuente, y puede avanzar directamente a la siguiente sección.
(1) Clonación del código del proyecto:
git clone https://github.com/zhayujie/chatgpt-on-wechat
cd chatgpt-on-wechat/Nota: Si encuentra problemas de red, puede elegir el espejo doméstico https://gitee.com/zhayujie/chatgpt-on-wechat
(2) Instalar dependencias del núcleo (requerido):
Capacidad para crear robots utilizando
itchaty tener el conjunto mínimo de dependencias requeridas para las capacidades de comunicación de texto.
pip3 install -r requirements.txt(3) Expandir dependencias (instalación opcional, recomendada):
pip3 install -r requirements-optional.txtSi falla una instalación de dependencia, comente la línea correspondiente antes de continuar
La plantilla del archivo de configuración se encuentra config.json el directorio raíz config-template.json .
cp config-template.json config.json Luego complete la configuración en config.json .
# config.json文件内容示例
{
" model " : " gpt-3.5-turbo " , # 模型名称, 支持 gpt-3.5-turbo, gpt-4, gpt-4-turbo, wenxin, xunfei, glm-4, claude-3-haiku, moonshot
" open_ai_api_key " : " YOUR API KEY " , # 如果使用openAI模型则填入上面创建的 OpenAI API KEY
" open_ai_api_base " : " https://api.openai.com/v1 " , # OpenAI接口代理地址
" proxy " : " " , # 代理客户端的ip和端口,国内环境开启代理的需要填写该项,如 "127.0.0.1:7890"
" single_chat_prefix " : [ " bot " , " @bot " ], # 私聊时文本需要包含该前缀才能触发机器人回复
" single_chat_reply_prefix " : " [bot] " , # 私聊时自动回复的前缀,用于区分真人
" group_chat_prefix " : [ " @bot " ], # 群聊时包含该前缀则会触发机器人回复
" group_name_white_list " : [ " ChatGPT测试群" , " ChatGPT测试群2 " ], # 开启自动回复的群名称列表
" group_chat_in_one_session " : [ " ChatGPT测试群" ], # 支持会话上下文共享的群名称
" image_create_prefix " : [ "画" , "看" , "找" ], # 开启图片回复的前缀
" conversation_max_tokens " : 1000, # 支持上下文记忆的最多字符数
" speech_recognition " : false, # 是否开启语音识别
" group_speech_recognition " : false, # 是否开启群组语音识别
" voice_reply_voice " : false, # 是否使用语音回复语音
" character_desc " : "你是基于大语言模型的AI智能助手,旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。 " , # 人格描述
# 订阅消息,公众号和企业微信channel中请填写,当被订阅时会自动回复,可使用特殊占位符。目前支持的占位符有{trigger_prefix},在程序中它会自动替换成bot的触发词。
" subscribe_msg " : "感谢您的关注!n这里是ChatGPT,可以自由对话。n支持语音对话。n支持图片输出,画字开头的消息将按要求创作图片。n支持角色扮演和文字冒险等丰富插件。n输入{trigger_prefix}#help 查看详细指令。 " ,
" use_linkai " : false, # 是否使用LinkAI接口,默认关闭,开启后可国内访问,使用知识库和MJ
" linkai_api_key " : " " , # LinkAI Api Key
" linkai_app_code " : " " # LinkAI 应用或工作流code
}Instrucciones de configuración:
1. Chat personal
single_chat_prefix (si no necesita el activador de prefijo, puede completar "single_chat_prefix": [""] )single_chat_reply_prefix [Bot]" para distinguir "single_chat_reply_prefix": "" las personas reales.2. Chat grupal
group_name_white_list para habilitar las respuestas automáticas de chat de grupo. Si desea entrar en vigencia en todos los chats grupales, puede completar directamente "group_name_white_list": ["ALL_GROUP"]group_chat_prefixgroup_name_keyword_white_list admite nombres de grupos combinados difusos, mientras que el elemento de configuración group_chat_keyword admite contenido de mensaje de grupo combinado difuso, y el uso es el mismo que los dos elementos de configuración anteriores. (Contribuido por Evolay)group_chat_in_one_session : haga que los chats de grupo compartan un contexto de sesión, y la configuración ["ALL_GROUP"] se utilizará para todos los chats grupales3. Reconocimiento de voz
"speech_recognition": true habilitará el reconocimiento de voz. Responderá automáticamente a todas las voces."group_speech_recognition": true habilitará el reconocimiento de voz del grupo. dibujo);"voice_reply_voice": true habilitará la voz de respuesta de voz (chat privado y chat grupal)4. Otras configuraciones
model : El nombre del modelo, actualmente admite gpt-3.5-turbo , gpt-4o-mini , gpt-4o , gpt-4 , wenxin , claude , gemini , glm-4 , xunfei , moonshot , etc., consulte Common/const Para todos los nombres de modelos.temperature , frequency_penalty , presence_penalty : parámetros de la interfaz de la API de chat, consulte la documentación oficial de OpenAI para obtener más detalles.proxy : dado que la interfaz openai es actualmente inaccesible en China, debe configurar la dirección del cliente proxy.image_create_prefixconfig.py .conversation_max_tokens : representa el número máximo de palabras en el contexto que se pueden recordar (una pregunta y respuesta es un grupo de conversaciones. Si el número acumulado de palabras en la conversación excede el límite, el primer grupo de conversaciones se eliminará primero)rate_limit_chatgpt , rate_limit_dalle : tasa de preguntas y respuestas máxima por minuto, tasa de dibujo, cola y proceso en orden después de la velocidad.clear_memory_commands : comandos en di-dialogue, borrar activamente la memoria anterior y personalizar el alias de comando para las matrices de cadenas.hot_reload : después de que el programa sale, el almacenamiento temporal es igual al estado y está cerrado de forma predeterminada.character_desc guarda un pasaje que le dijo al robot que recordará este pasaje y servirá como su configuración, y puede personalizar cualquier personalidad para él (consulte este problema para obtener más información sobre el contexto de la conversación)subscribe_msg : complete el mensaje de suscripción, la cuenta oficial y el canal de WeChat Enterprise. Los marcadores de posición actualmente compatibles son {Trigger_Prefix}, que será reemplazado automáticamente por la palabra de activación de bot en el programa.5. Configuración de Linkai (opcional)
use_linkai : si se debe usar la interfaz Linkai, se puede acceder en China después de abrirla, usar la base de conocimiento y la pintura Midjourney , documentos de referencialinkai_api_key : la tecla API Linkai, se puede crear en la consolalinkai_app_code : aplicación de Linkai o código de flujo de trabajo, opcional Es posible que este documento no se actualice a tiempo, y todos los elementos de configuración opcionales actualmente se enumeran en este config.py .
Si la máquina de desarrollo se ejecuta localmente , ejecútela directamente en el directorio de Root del proyecto:
python3 app.py # windows环境下该命令通常为 python app.pyUna vez que el terminal emite el código QR, escanee el código para iniciar sesión. Al emitir "Iniciar respuesta automática", significa que el programa de respuesta automática se ha ejecutado correctamente (Nota: la cuenta utilizada para iniciar sesión debe haber completado un nombre real de nombre real autenticación en la ubicación de pago). Después de escanear el código para iniciar sesión, su cuenta se convierte en un robot.
Use el comando nohup para ejecutar el programa en segundo plano:
nohup python3 app.py & tail -f nohup.out # 在后台运行程序并通过日志输出二维码Después ctrl+c escanear el código para iniciar sesión, el programa puede ejecutarse en el fondo del servidor. Use ps -ef | grep app.py | grep -v grep kill Después de que se cierre el registro, si desea volver a abrir, simplemente ingrese a tail -f nohup.out . Además, hay scripts para ejecutar un solo clic y cerrar el programa para su uso en el directorio de scripts.
Soporte de cuenta múltiple: copie múltiples copias del proyecto, inicie el programa por separado y use diferentes cuentas para escanear el código para iniciar sesión para lograr una operación simultánea.
Comando especial: el usuario envía #reset al robot para borrar la memoria de contexto del usuario.
Usar Docker para implementar no requiere descargar el código fuente y las dependencias de instalación, solo necesita obtener el archivo de configuración Docker-Compose.yml e iniciar el contenedor.
La premisa es que
dockerdocker -vdocker-compose versiondocker-composedeben instalarse. descargar.
(1) Descargue el archivo Docker-compose.yml
wget https://open-1317903499.cos.ap-guangzhou.myqcloud.com/docker-compose.yml Después de completar la descarga, abra docker-compose.yml para modificar la configuración requerida, como OPEN_AI_API_KEY y GROUP_NAME_WHITE_LIST , etc.
(2) Inicie el contenedor
Ejecute el siguiente comando en el directorio donde se encuentra docker-compose.yml para iniciar el contenedor:
sudo docker compose up -d Ejecutar sudo docker ps puede ver contenedores con nombres ChatGpt-on-Wechat, lo que significa ejecutarse correctamente.
Aviso:
docker-compose es la versión 1.x, debe ejecutar sudo docker-compose up -d para iniciar el contenedorFinalmente, ejecute el siguiente comando para ver el registro de ejecución del contenedor, escanee el código QR en el registro para completar el registro:
sudo docker logs -f chatgpt-on-wechat(3) Uso de complemento
config.json chatgpt-on-wechat modificar la configuración docker-compose.yml complemento en el contenedor Docker, puede completarlo montando. En docker-compose.yml agregue el mapeo volumes debajo de chatgpt-on-wechat :
volumes:
- ./config.json:/app/plugins/config.json
El ferrocarril ofrece cuotas gratuitas de $ 5 por mes y hasta 500 horas. (Actualización 07.11: la mayoría de las cuentas ya no están disponibles de forma gratuita)
Deploy Now .open_ai_api_key , character_desc .Implementación de un solo clic:
Preguntas frecuentes: https://github.com/zhayujie/chatgpt-onwechat/wiki/faqs
O consultar directamente al asistente del proyecto en línea (el corpus se está mejorando continuamente, y la respuesta es solo de referencia)
Bienvenido a acceder a más aplicaciones, consulte el código terminal para implementar la lógica de recibir y enviar mensajes para acceder. Al mismo tiempo, los nuevos complementos son bienvenidos, consulte las instrucciones del complemento.
Bienvenido a enviar relaciones públicas, problemas y estrellas para su apoyo. Si encuentra problemas cuando se ejecuta el programa, puede ver la lista de preguntas frecuentes y luego ir a problemas para buscar. Los desarrolladores individuales pueden unirse al grupo de intercambio de código abierto para participar en más discusiones, y los usuarios corporativos pueden comunicarse con consultores de productos para consultar.