O projeto ChatGPT-on-Wechat (Cow) é um grande robô de diálogo inteligente baseado em modelo que suporta contas oficiais do WeChat, aplicativos corporativos do WeChat, Feishu e DingTalk Access. Linkai/chatglm/kimi/wenxin yiyan/iflytek/tongyi qianwen/linkai pode processar texto, voz e figuras, acessar recursos externos, como o sistema operacional e a internet por meio de plug-ins e suportar a IA da empresa personalizada com base em sua própria base de conhecimento . aplicativo.
A versão mais recente suporta funções da seguinte maneira:
Vídeo de demonstração: https://cdn.link-ai.tech/doc/cow_demo.mp4
Adicione um pequeno assistente ao WeChat para ingressar no grupo de troca de projetos de código aberto:
O Linkai é uma plataforma de aplicativos de IA de uma parada para empresas e desenvolvedores, agregando modelos grandes multimodais, bases de conhecimento, plug-ins de agentes, fluxos de trabalho e outros recursos, suportando acesso de um clique às plataformas convencionais e gerenciando-as, apoiando a implantação privatizada. Vários modos.
A Linkai acumulou soluções ricas de IA em operações de domínio privado, atendimento inteligente ao cliente, assistente de eficiência corporativa e outros cenários, e acumulou as melhores práticas para aplicação em larga escala em vários setores, como comércio eletrônico, cultura e educação, saúde, novo consumo e fabricação de tecnologia.
Serviços corporativos e consultoria de produto Entre em contato com um consultor de produto:
2024.10.31: Melhoria da estabilidade do programa na versão 1.7.3, funções de banco de dados, otimização de modelos de Claude, otimização de plug-in linkai, notificações offline
2024.09.26: versão 1.7.2 e versão 1.7.1, IFLYTEK e outros modelos Otimização, modelos O1, Scripts de instalação rápida e gerenciamento
2024.08.02: Modelo IFLYTEK 4.0, exibição da fonte de citação da base de conhecimento e otimização de plug-in relacionada na versão 1.7.0
2024.07.19: Versão 1.6.9 Adiciona modelo GPT-4O-Mini, reconhecimento de voz do Alibaba e otimização de roteamento de canais de aplicativos Qiwei
2024.07.05: Versão 1.6.8 e versão 1.6.7, Claude3.5, Gemini 1.5 Pro, Modelo Minimax, entrada de imagem de fluxo de trabalho, melhoria da lista de modelos
2024.06.04: 1.6.6 e 1.6.5 Versões, modelo GPT-4O, cartões de streaming dingTalk, reconhecimento/síntese de voz IFLYTEK
2024.04.26: versão 1.6.0, adicionando acesso Kimi Acesso, GPT-4-Turbo Version, resumo de arquivos e correção de problemas de reconhecimento de voz
2024.03.26: versão 1.5.8 e versão 1.5.7, novos modelos GLM-4 e Claude-3, suporte de voz de Edge-TTS
2024.01.26: 1.5.6 Versão e 1.5.5 Versão, acesso DingTalk, atualização de plug-in de ferramentas, atualização do modelo 4-Turbo
2023.11.11: versão 1.5.3 e versão 1.5.4, adicionando o modelo Tongyi Qianwen e o Google Gemini
2023.11.10: versão 1.5.2, adicionando canal Feishu, diálogo de reconhecimento de imagem e configuração da lista negra
2023.11.10: Versão 1.5.0, novo
gpt-4-turbo,dall-e-3,ttsModel Acesso é adicionado e as capacidades multimodais de compreensão e geração de imagem, reconhecimento e geração de fala são aprimoradas
2023.10.16: suporta plug-ins como Pesquisa de rede Linkai, cálculo matemático, acesso à Web através de identificação de intenções, consulte o documento plug-in
2023.09.26: O plug-in adiciona funções de resumo e diálogo de um clique dos links de arquivo/artigo.
2023.08.08: Acesso ao modelo Baidu Wenxin Yiyan e Suporte Midjourney desenhando através do plug-in
2023.06.12: Conecte -se à plataforma Linkai, você pode criar uma base de conhecimento de domínio on -line e criar um robô de atendimento ao cliente exclusivo. Use o documento de acesso a referência.
Visualize logs de atualização anterior: registros de arquivo
Inicie rapidamente documentação detalhada: documentação de construção do projeto
Script de instalação rápida, instruções detalhadas para o uso de: script de inicialização de instalação com um clique
bash <( curl -sS https://cdn.link-ai.tech/code/cow/install.sh )O projeto usa a interface OpenAI por padrão. no projeto mais tarde. A interface requer acesso ao acesso à rede no exterior e pelo pagamento do cartão de crédito.
O modelo de diálogo padrão é o GPT-Turbo do OpenAI, que consome US $ 0,002 por 1000 tokens (cerca de 750 palavras em inglês ou 500 caracteres chineses, incluindo solicitações e respostas).
O projeto também suporta o uso da interface Linkai e não requer um agente. , fluxo de trabalho e outros recursos. Modifique a configuração e use -a com um clique, consulte o documento de acesso.
Suporta sistemas Linux, MacOS e Windows (podem ser executados em servidores Linux por um longo tempo), e é necessário que Python seja instalado.
Recomenda -se que a versão Python esteja entre 3.7.1 e 3.9.x, e a versão 3.8 é recomendada.
Nota: Docker ou implantação ferroviária não requer a instalação do ambiente Python e o download do código -fonte, e você pode avançar rapidamente para a próxima seção.
(1) Clonando o código do projeto:
git clone https://github.com/zhayujie/chatgpt-on-wechat
cd chatgpt-on-wechat/Nota: Se você encontrar problemas de rede, poderá escolher o espelho doméstico https://gitee.com/zhayujie/chatgpt-on-wechat
(2) Instale as dependências principais (necessárias):
Capacidade de criar robôs usando
itchate ter o conjunto mínimo de dependências necessárias para os recursos de comunicação de texto.
pip3 install -r requirements.txt(3) expandir dependências (instalação opcional e recomendada):
pip3 install -r requirements-optional.txtSe uma instalação de dependência falhar, comente a linha correspondente antes de continuar
O modelo do arquivo de configuração está no ROOT Directory Config config.json config-template.json .
cp config-template.json config.json Em seguida, preencha a configuração em config.json .
# config.json文件内容示例
{
" model " : " gpt-3.5-turbo " , # 模型名称, 支持 gpt-3.5-turbo, gpt-4, gpt-4-turbo, wenxin, xunfei, glm-4, claude-3-haiku, moonshot
" open_ai_api_key " : " YOUR API KEY " , # 如果使用openAI模型则填入上面创建的 OpenAI API KEY
" open_ai_api_base " : " https://api.openai.com/v1 " , # OpenAI接口代理地址
" proxy " : " " , # 代理客户端的ip和端口,国内环境开启代理的需要填写该项,如 "127.0.0.1:7890"
" single_chat_prefix " : [ " bot " , " @bot " ], # 私聊时文本需要包含该前缀才能触发机器人回复
" single_chat_reply_prefix " : " [bot] " , # 私聊时自动回复的前缀,用于区分真人
" group_chat_prefix " : [ " @bot " ], # 群聊时包含该前缀则会触发机器人回复
" group_name_white_list " : [ " ChatGPT测试群" , " ChatGPT测试群2 " ], # 开启自动回复的群名称列表
" group_chat_in_one_session " : [ " ChatGPT测试群" ], # 支持会话上下文共享的群名称
" image_create_prefix " : [ "画" , "看" , "找" ], # 开启图片回复的前缀
" conversation_max_tokens " : 1000, # 支持上下文记忆的最多字符数
" speech_recognition " : false, # 是否开启语音识别
" group_speech_recognition " : false, # 是否开启群组语音识别
" voice_reply_voice " : false, # 是否使用语音回复语音
" character_desc " : "你是基于大语言模型的AI智能助手,旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。 " , # 人格描述
# 订阅消息,公众号和企业微信channel中请填写,当被订阅时会自动回复,可使用特殊占位符。目前支持的占位符有{trigger_prefix},在程序中它会自动替换成bot的触发词。
" subscribe_msg " : "感谢您的关注!n这里是ChatGPT,可以自由对话。n支持语音对话。n支持图片输出,画字开头的消息将按要求创作图片。n支持角色扮演和文字冒险等丰富插件。n输入{trigger_prefix}#help 查看详细指令。 " ,
" use_linkai " : false, # 是否使用LinkAI接口,默认关闭,开启后可国内访问,使用知识库和MJ
" linkai_api_key " : " " , # LinkAI Api Key
" linkai_app_code " : " " # LinkAI 应用或工作流code
}Instruções de configuração:
1. Chat pessoal
single_chat_prefix (se você não precisar do acionador de prefixo, poderá preencher "single_chat_prefix": [""] ))"single_chat_reply_prefix": "" robô será single_chat_reply_prefix com "[bot]" para distinguir pessoas reais.2. Chat em grupo
group_name_white_list para ativar respostas automáticas de bate -papo em grupo. Se você quiser entrar em vigor em todos os bate -papos em grupo, pode preencher diretamente "group_name_white_list": ["ALL_GROUP"]group_chat_prefixgroup_name_keyword_white_list suporta nomes de grupos combinando difusos, enquanto o item de configuração group_chat_keyword suporta o conteúdo da mensagem do grupo combinando difuso, e o uso é o mesmo que os dois itens de configuração acima. (Contribuído por Evolay)group_chat_in_one_session : faça os bate -papos do grupo compartilhar um contexto de sessão e a configuração ["ALL_GROUP"] será usada para todos os bate -papos em grupo3. Reconhecimento de voz
"speech_recognition": true permitirá o reconhecimento de voz. Ele responderá automaticamente a todas as vozes."group_speech_recognition": true permitirá o reconhecimento de fala do grupo. desenho);"voice_reply_voice": true permitirá a voz da resposta (bate -papo privado e bate -papo em grupo)4. Outras configurações
model : O nome do modelo, atualmente suporta gpt-3.5-turbo , gpt-4o-mini , gpt-4o , gpt-4 , wenxin , claude , gemini , glm-4 , xunfei , moonshot , etc. Para todos os nomes do modelotemperature , frequency_penalty , presence_penalty : parâmetros de interface da API de bate -papo, consulte a documentação oficial do OpenAI para obter detalhes.proxy : Como a interface openai está atualmente inacessível na China, você precisa configurar o endereço do cliente proxy.image_create_prefixconfig.py .conversation_max_tokens : representa o número máximo de palavras no contexto que pode ser lembrado (uma pergunta e resposta é um grupo de conversas. Se o número acumulado de palavras na conversa exceder o limite, o grupo mais antigo de conversas será removido primeiro)rate_limit_chatgpt , rate_limit_dalle : taxa de perguntas e respostas máxima por minuto, taxa de desenho, fila e processo em ordem após a velocidade.clear_memory_commands : comandos no diário, limpe a memória anterior e personalize o alias de comando para matrizes de string.hot_reload : Após a saída do programa, o armazenamento temporário é igual ao status e é fechado por padrão.character_desc salva uma passagem que você disse ao robô, ele se lembrará dessa passagem e servirá como seu cenário, e você poderá personalizar qualquer personalidade para ele (consulte este problema para obter mais informações sobre o contexto da conversa)subscribe_msg : preencha a mensagem de assinatura, a conta oficial e o canal WeChat. Atualmente, os espaços reservados suportados são {trigger_prefix}, que serão substituídos automaticamente pela palavra de gatilho de bot no programa.5. Configuração do Linkai (Opcional)
use_linkai : Se você deve usar a interface Linkai, ele pode ser acessado na China depois de abri -lo, usar a base de conhecimento e a pintura Midjourney , documentos de referêncialinkai_api_key : linkai API Key, pode ser criada no consolelinkai_app_code : aplicativo Linkai ou código de fluxo de trabalho, opcional Este documento não pode ser atualizado a tempo e todos os itens de configuração opcionais atualmente estão listados neste config.py .
Se a máquina de desenvolvimento estiver funcionando localmente , execute -a diretamente no diretório raiz do projeto:
python3 app.py # windows环境下该命令通常为 python app.pyDepois que o terminal gera o código QR, digitalize o código para fazer login. Ao produzir "Iniciar a resposta automática", significa que o programa de resposta automática foi executado com sucesso (Nota: a conta usada para fazer login precisa ter concluído o nome real autenticação no local do pagamento). Após a digitalização do código para fazer login, sua conta se torna um robô.
Use o comando Nohup para executar o programa em segundo plano:
nohup python3 app.py & tail -f nohup.out # 在后台运行程序并通过日志输出二维码Após ctrl+c digitalização do código para fazer o login, o programa pode ser executado no histórico do servidor. Use ps -ef | grep app.py | grep -v grep kill Depois que o log estiver fechado, se você quiser abrir novamente, basta entrar tail -f nohup.out . Além disso, existem scripts para execução e fechamento de um clique para uso no diretório scripts.
Suporte de várias contas: copie várias cópias do projeto, inicie o programa separadamente e use contas diferentes para digitalizar o código para fazer login para obter uma operação simultânea.
Comando especial: o usuário envia #reset para o robô para limpar a memória de contexto do usuário.
O uso do Docker para implantar não requer download do código-fonte e dependências de instalação, você só precisa obter o arquivo de configuração do Docker-compose.yml e iniciar o contêiner.
A premissa é que
docker -vdockeredocker-compose versiondocker-composeprecisam ser instalados. download.
(1) Faça o download do arquivo docker-compose.yml
wget https://open-1317903499.cos.ap-guangzhou.myqcloud.com/docker-compose.yml Após a conclusão do download, o Open docker-compose.yml para modificar a configuração necessária, como OPEN_AI_API_KEY e GROUP_NAME_WHITE_LIST , etc.
(2) Inicie o contêiner
Execute o seguinte comando no diretório em que docker-compose.yml está localizado para iniciar o contêiner:
sudo docker compose up -d A execução sudo docker ps pode ver os contêineres com nomes Chatgpt-on-Wechat, o que significa executar com sucesso.
Perceber:
sudo docker-compose up -d docker-compose for 1.x versão, você precisarPor fim, execute o seguinte comando para visualizar o log de execução do contêiner, digitalize o código QR no log para concluir o log:
sudo docker logs -f chatgpt-on-wechat(3) Uso de plug-in
config.json você precisar modificar a configuração do plug-in no contêiner docker-compose.yml Docker, poderá concluí-lo montando chatgpt-on-wechat o. No docker-compose.yml adicione o mapeamento volumes na seção chatgpt-on-wechat :
volumes:
- ./config.json:/app/plugins/config.json
A Railway oferece cotas gratuitas de US $ 5 por mês e até 500 horas. (Atualização 07.11: A maioria das contas não está mais disponível gratuitamente)
Deploy Now .open_ai_api_key , character_desc .Implantação com um clique:
Perguntas frequentes: https://github.com/zhayujie/chatgpt-on-wechat/wiki/faqs
Ou consulte diretamente o assistente do projeto on -line (o corpus está sendo melhorado continuamente, e a resposta é apenas para referência)
Bem -vindo ao acesso a mais aplicativos, consulte o código do terminal para implementar a lógica de receber e enviar mensagens para acessar. Ao mesmo tempo, novos plug-ins são bem-vindos a serem adicionados, consulte as instruções de plug-in.
Bem -vindo ao envio de relações públicas, questões e estrela para apoio. Se você encontrar problemas quando o programa é executado, poderá visualizar a lista de perguntas frequentes e, em seguida, ir a problemas para pesquisar. Os desenvolvedores individuais podem ingressar no grupo de troca de código aberto para participar de mais discussões, e os usuários corporativos podem entrar em contato com os consultores de produtos para consulta.