Chatgpt-on-Wechat (COW) 프로젝트는 WeChat 공식 계정, Enterprise WeChat 응용 프로그램, Feishu 및 Dingtalk Access를 지원하는 대규모 모델 기반 지능형 대화 로봇입니다. linkai/chatglm/kimi/wenxin yiyan/iflytek/tongyi qianwen/linkai . 애플리케이션.
최신 버전은 다음과 같이 기능을 지원합니다.
데모 비디오 : https://cdn.link-ai.tech/doc/cow_demo.mp4
오픈 소스 프로젝트 교환 그룹에 가입하려면 WeChat에 작은 조수를 추가하십시오.
Linkai는 기업 및 개발자를위한 원 스톱 AI 애플리케이션 플랫폼으로, 멀티 모달 대형 모델, 지식 기반, 에이전트 플러그인, 워크 플로우 및 기타 기능을 집계하고 주류 플랫폼에 대한 원 클릭 액세스를 지원하고이를 관리하고 SaaS 및 민영화 된 배포를 지원합니다. 다중 모드.
Linkai는 개인 도메인 운영, 지능형 고객 서비스, 엔터프라이즈 효율성 어시스턴트 및 기타 시나리오에 풍부한 AI 솔루션을 축적했으며 전자 상거래, 문화 및 교육, 건강, 새로운 소비와 같은 다양한 산업에서 대규모 응용 프로그램에 대한 모범 사례를 축적했습니다. 및 기술 제조, 더 많은 기업과 개발자가 AI 생산성을 수용하도록 돕기 위해 노력하고 있습니다.
엔터프라이즈 서비스 및 제품 컨설팅 제품 컨설턴트에게 문의하십시오.
2024.10.31 : 버전 1.7.3의 프로그램 안정성 향상, 데이터베이스 기능, 클로드 모델 최적화, Linkai 플러그인 최적화, 오프라인 알림
2024.09.26 : 버전 1.7.2 및 버전 1.7.1, Iflytek 및 기타 모델 최적화, O1 모델, 빠른 설치 및 관리 스크립트
2024.08.02 : Iflytek 4.0 모델, 지식 기반 인용 소스 디스플레이 및 관련 플러그인 최적화 버전 1.7.0
2024.07.19 : 버전 1.6.9 GPT-4O-MINI 모델, 알리바바 음성 인식 및 Qiwei 응용 프로그램 채널 라우팅 최적화 추가
2024.07.05 : 버전 1.6.8 및 버전 1.6.7, Claude3.5, Gemini 1.5 Pro, Minimax 모델, 워크 플로 사진 입력, 모델 목록 개선
2024.06.04 : 1.6.6 및 1.6.5 버전, GPT-4O 모델, Dingtalk 스트리밍 카드, iflytek 음성 인식/합성
2024.04.26 : 버전 1.6.0, Kimi Access 추가, GPT-4-Turbo 버전 업그레이드, 파일 요약 및 음성 인식 문제 수정
2024.03.26 : 버전 1.5.8 및 버전 1.5.7, New GLM-4 및 Claude-3 모델, Edge-TTS 음성 지원
2024.01.26 : 1.5.6 버전 및 1.5.5 버전, Dingtalk 액세스, 도구 플러그인 업그레이드, 4 터보 모델 업데이트
2023.11.11 : 버전 1.5.3 및 버전 1.5.4, Tongyi Qianwen 모델 및 Google Gemini 추가
2023.11.10 : 버전 1.5.2, Feishu 채널 추가, 이미지 인식 대화 및 블랙리스트 구성
2023.11.10 : 버전 1.5.0, 새로운
gpt-4-turbo,dall-e-3,tts모델 액세스가 추가되고 이미지 이해 및 생성 및 발언 인식 및 생성의 멀티 모달 기능이 향상되었습니다.
2023.10.16 : Linkai 네트워크 검색, 수학적 계산, 의도 식별을 통한 웹 액세스와 같은 플러그인을 지원합니다. 플러그인 문서를 참조하십시오.
2023.09.26 : 플러그인은 File/Article 링크의 한 클릭 요약 및 대화 기능을 추가합니다
2023.08.08 : 플러그인을 통한 Baidu Wenxin Yiyan 모델 및 Midjourney 드로잉 지원
2023.06.12 : Linkai 플랫폼에 연결하면 온라인으로 도메인 지식 기반을 만들고 독점 고객 서비스 로봇을 만들 수 있습니다. 참조 액세스 문서를 사용하십시오.
이전 업데이트 로그 : 아카이브 로그를보십시오
자세한 문서 : 프로젝트 건설 문서를 신속하게 시작하십시오
빠른 설치 스크립트, 사용을위한 세부 지침 : 원 클릭 설치 시작 스크립트
bash <( curl -sS https://cdn.link-ai.tech/code/cow/install.sh )이 프로젝트는 기본적으로 OpenAI 인터페이스를 사용하여 계정을 만들려면 API 관리 페이지로 이동 하여이 키를 작성해야합니다 나중에 프로젝트에서. 인터페이스에는 해외 네트워크 액세스 및 신용 카드 결제가 필요합니다.
기본 대화 모델은 OpenAI의 GPT-3.5-Turbo로, 1000 개의 토큰 당 $ 0.002를 소비합니다 (약 750 개의 영어 단어 또는 요청 및 답변을 포함한 500 자)는 그림 당 $ 0.016을 소비합니다.
이 프로젝트는 또한 Linkai 인터페이스 사용을 지원하며 Kimi, Wenxin, Iflytek, GPT-4O 및 기타 모델을 사용하여 맞춤형 지식 기반, 네트워크 검색, MJ 도면, 문서 요약을 필요로하지 않습니다. , 워크 플로 및 기타 기능. 구성을 수정하고 한 번의 클릭으로 사용하여 액세스 문서를 참조하십시오.
Linux, MacOS 및 Windows 시스템을 지원하며 (Linux 서버에서 오랫동안 실행할 수 있음) Python 설치해야합니다.
Python 버전은 3.7.1과 3.8 버전을 권장합니다.
참고 : Docker 또는 Railway Deployment는 Python 환경을 설치하고 소스 코드를 다운로드 할 필요가 없으며 다음 섹션으로 직접 전달할 수 있습니다.
(1) 프로젝트 코드 복제 :
git clone https://github.com/zhayujie/chatgpt-on-wechat
cd chatgpt-on-wechat/참고 : 네트워크 문제가 발생하면 국내 미러를 선택할 수 있습니다 https://gitee.com/zhayujie/chatgpt-on-wechat
(2) 코어 종속성 설치 (필수) :
itchat사용하여 로봇을 만들고 텍스트 커뮤니케이션 기능에 필요한 최소 종속성 세트가 있습니다.
pip3 install -r requirements.txt(3) 의존성 확장 (선택 사항, 권장 설치) :
pip3 install -r requirements-optional.txt종속성 설치가 실패하면 계속하기 전에 해당 라인에 주석
구성 파일의 템플릿은 루트 디렉토리 config-template.json config.json 있습니다.
cp config-template.json config.json 그런 다음 config.json 의 구성을 작성하십시오. 다음은 기본 구성에 대한 설명입니다. 이는 필요에 따라 사용자 정의 및 수정할 수 있습니다 (전체 JSON 형식을 보장하기 위해 주석을 제거하십시오.
# config.json文件内容示例
{
" model " : " gpt-3.5-turbo " , # 模型名称, 支持 gpt-3.5-turbo, gpt-4, gpt-4-turbo, wenxin, xunfei, glm-4, claude-3-haiku, moonshot
" open_ai_api_key " : " YOUR API KEY " , # 如果使用openAI模型则填入上面创建的 OpenAI API KEY
" open_ai_api_base " : " https://api.openai.com/v1 " , # OpenAI接口代理地址
" proxy " : " " , # 代理客户端的ip和端口,国内环境开启代理的需要填写该项,如 "127.0.0.1:7890"
" single_chat_prefix " : [ " bot " , " @bot " ], # 私聊时文本需要包含该前缀才能触发机器人回复
" single_chat_reply_prefix " : " [bot] " , # 私聊时自动回复的前缀,用于区分真人
" group_chat_prefix " : [ " @bot " ], # 群聊时包含该前缀则会触发机器人回复
" group_name_white_list " : [ " ChatGPT测试群" , " ChatGPT测试群2 " ], # 开启自动回复的群名称列表
" group_chat_in_one_session " : [ " ChatGPT测试群" ], # 支持会话上下文共享的群名称
" image_create_prefix " : [ "画" , "看" , "找" ], # 开启图片回复的前缀
" conversation_max_tokens " : 1000, # 支持上下文记忆的最多字符数
" speech_recognition " : false, # 是否开启语音识别
" group_speech_recognition " : false, # 是否开启群组语音识别
" voice_reply_voice " : false, # 是否使用语音回复语音
" character_desc " : "你是基于大语言模型的AI智能助手,旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。 " , # 人格描述
# 订阅消息,公众号和企业微信channel中请填写,当被订阅时会自动回复,可使用特殊占位符。目前支持的占位符有{trigger_prefix},在程序中它会自动替换成bot的触发词。
" subscribe_msg " : "感谢您的关注!n这里是ChatGPT,可以自由对话。n支持语音对话。n支持图片输出,画字开头的消息将按要求创作图片。n支持角色扮演和文字冒险等丰富插件。n输入{trigger_prefix}#help 查看详细指令。 " ,
" use_linkai " : false, # 是否使用LinkAI接口,默认关闭,开启后可国内访问,使用知识库和MJ
" linkai_api_key " : " " , # LinkAI Api Key
" linkai_app_code " : " " # LinkAI 应用或工作流code
}구성 지침 :
1. 개인 채팅
single_chat_prefix (접두사 트리거가 필요하지 않은 경우 "single_chat_prefix": [""] ))"single_chat_reply_prefix": "" single_chat_reply_prefix 가 표시됩니다.2. 그룹 채팅
group_name_white_list 에서 그룹 이름을 구성해야합니다. 모든 그룹 채팅에 적용하려면 "group_name_white_list": ["ALL_GROUP"] 직접 작성할 수 있습니다.group_chat_prefix 에 해당합니다group_name_keyword_white_list 구성 항목은 퍼지 매칭 그룹 이름을 지원하는 반면 group_chat_keyword 구성 항목은 퍼지 일치 그룹 메시지 컨텐츠를 지원하며 사용량은 위의 두 구성 항목과 동일합니다. + (Evolay에 의해 기여)group_chat_in_one_session : 그룹 채팅이 세션 컨텍스트를 공유하고 구성 ["ALL_GROUP"] 모든 그룹 채팅에 사용됩니다.3. 음성 인식
"speech_recognition": true 으로 OpenAi의 Whisper 모델은 텍스트로 인식하는 데 사용됩니다. 모든 음성에 자동으로 응답합니다."group_speech_recognition": true 는 기본적으로 그룹 음성 인식을 활성화합니다. 그림);"voice_reply_voice": true 음성 회신 음성 (개인 채팅 및 그룹 채팅)을 활성화합니다.4. 기타 구성
model : 모델 이름은 현재 gpt-3.5-turbo , gpt-4o-mini , gpt-4o , gpt-4 , wenxin , claude , gemini , glm-4 , xunfei , moonshot 등을 지원합니다. Common/Const를 참조하십시오. 모든 모델 이름에 대해. Py 파일temperature , frequency_penalty , presence_penalty : 채팅 API 인터페이스 매개 변수는 공식 OpenAI 문서를 참조하십시오.proxy : openai 인터페이스는 현재 중국에서 접근 할 수 없으므로 프록시 클라이언트의 주소를 구성해야합니다. #351을 참조하십시오image_create_prefixconfig.py 의이 프로젝트에서 구성 가능한 매개 변수를 확인하기 위해 대화 인터페이스 및 이미지 인터페이스 문서를 참조 할 수 있습니다. .conversation_max_tokens : 기억할 수있는 맥락에서 최대 단어 수를 나타냅니다 (한 가지 질문과 대답은 대화 그룹입니다. 대화에서 누적 된 단어 수가 한계를 초과하면 가장 빠른 대화 그룹이 먼저 제거됩니다).rate_limit_chatgpt , rate_limit_dalle : 분당 최대 Q & A 속도, 드로잉 속도, 대기열 및 과속 후 순서대로 처리합니다.clear_memory_commands : in-dialogue 명령, 이전 메모리를 적극적으로 지우고 문자열 배열의 명령 별명을 사용자 정의합니다.hot_reload : 프로그램이 종료 된 후 임시 스토리지는 상태와 같으며 기본적으로 닫힙니다.character_desc 구성은 로봇에 말한 구절을 저장하고,이 구절을 기억하고 그의 설정으로 사용될 것이며, 그에게 성격을 사용자 정의 할 수 있습니다 (대화의 맥락에 대한 자세한 내용은이 문제를 참조하십시오).subscribe_msg : 구독 메시지, 공식 계정 및 Enterprise WeChat 채널을 작성하십시오. 현재 지원되는 자리 표시자는 {trigger_prefix}이며 프로그램에서 봇의 트리거 단어로 자동으로 교체됩니다.5. 링크바 구성 (선택 사항)
use_linkai : Linkai 인터페이스 사용 여부, 개방 후 중국에서 액세스 할 수 있습니다. 지식 기반 및 Midjourney 그림, 참조 문서 사용linkai_api_key : linkai api 키, 콘솔에서 생성 할 수 있습니다.linkai_app_code : linkai 응용 프로그램 또는 워크 플로 코드, 선택 사항 이 문서는 정시에 업데이트되지 않을 수 있으며 현재 모든 선택적 구성 항목은이 config.py 에 나열되어 있습니다.
개발 기계가 로컬로 실행중인 경우 Project Root 디렉토리에서 직접 실행하십시오.
python3 app.py # windows环境下该命令通常为 python app.py터미널이 QR 코드를 출력 한 후 코드를 스캔하여 로그인하십시오. "자동 답장 시작"출력은 자동 응답 프로그램이 성공적으로 실행되었음을 의미합니다 (참고 : 로깅에 사용 된 계정은 Real-Name을 완료해야합니다. 지불 위치에서 인증). 로그인하기 위해 코드를 스캔 한 후에는 계정이 로봇이됩니다. 휴대 전화에서 구성된 키워드를 통해 자동 응답을 트리거 할 수 있습니다 (친구는 메시지를 보내거나 친구에게 메시지를 보냅니다).
NOHUP 명령을 사용하여 백그라운드에서 프로그램을 실행하십시오.
nohup python3 app.py & tail -f nohup.out # 在后台运行程序并通过日志输出二维码로그인하는 코드를 스캔 한 후이 시점에서 프로그램이 서버 배경에서 실행될 수 있으므로 ctrl+c 를 통해 로그를 닫을 수 있습니다. ps -ef | grep app.py | grep -v grep kill 로그가 닫힌 후 다시 열려면 tail -f nohup.out 입력하십시오. 또한 Scripts Directory에서 사용하기위한 프로그램을 한 번 클릭하고 닫는 scripts 가 있습니다.
멀티 카운트 지원 : 프로젝트의 여러 사본을 복사하고 프로그램을 개별적으로 시작한 다음 다른 계정을 사용하여 코드를 스캔하여 동시 작업을 달성합니다.
특수 명령 : 사용자는 #Reset을 로봇으로 보내서 사용자의 컨텍스트 메모리를 지우십시오.
Docker를 사용하여 배포를 사용하면 소스 코드 및 설치 종속성 다운로드가 필요하지 않으므로 Docker-Compose.yml 구성 파일 만 얻고 컨테이너를 시작하면됩니다.
전제는
docker와docker-compose설치해야한다는 것이docker -v및docker-compose version(또는 Docker Compose 버전)을 실행하여 Docker 공식 웹 사이트를 방문하는 것입니다. 다운로드.
(1) docker-compose.yml 파일을 다운로드하십시오
wget https://open-1317903499.cos.ap-guangzhou.myqcloud.com/docker-compose.yml 다운로드가 완료되면 docker-compose.yml 열어 OPEN_AI_API_KEY 및 GROUP_NAME_WHITE_LIST 등과 같은 필요한 구성을 수정하십시오.
(2) 컨테이너를 시작하십시오
docker-compose.yml 있는 디렉토리에서 다음 명령을 실행하여 컨테이너를 시작합니다.
sudo docker compose up -d sudo docker ps 실행하면 Chatgpt-on-Wechat이라는 이름의 컨테이너를 볼 수 있습니다. 이는 성공적으로 실행되는 것을 의미합니다.
알아채다:
docker-compose 1.x 버전 인 경우 컨테이너를 시작하려면 sudo docker-compose up -d 실행해야합니다.마지막으로 다음 명령을 실행하여 컨테이너 실행 로그를보고 로그에서 QR 코드를 스캔하여 로그를 작성하십시오.
sudo docker logs -f chatgpt-on-wechat(3) 플러그인 사용
Docker 컨테이너의 플러그인 구성을 수정 해야하는 경우 config.json 에 플러그인 구성 파일을 바꾸면 docker-compose.yml 및 chatgpt-on-wechat 와 동일한 디렉토리에 배치 할 수 있습니다. docker-compose.yml 에서 chatgpt-on-wechat 섹션에서 volumes 매핑을 추가하십시오.
volumes:
- ./config.json:/app/plugins/config.json
철도는 한 달에 $ 5, 최대 500 시간의 무료 할당량을 제공합니다. (업데이트 07.11 : 대부분의 계정은 더 이상 무료로 사용할 수 없습니다)
Deploy Now 버튼을 클릭하십시오.open_ai_api_key , character_desc 와 같은 프로그램의 매개 변수를 오버로드하도록 환경 변수를 설정하십시오.원 클릭 배포 :
FAQS : https://github.com/zhayujie/chatgpt-on-wechat/wiki/faqs
또는 Project Assistant Online과 직접 상담합니다 (코퍼스는 지속적으로 개선되고 있으며 회신은 참조 용입니다).
더 많은 애플리케이션에 액세스하는 데 오신 것을 환영합니다. 터미널 코드를 참조하여 액세스 할 메시지를 수신하고 보내는 논리를 구현하십시오. 동시에 새로운 플러그인을 추가 할 수 있습니다. 플러그인 지침을 참조하십시오.
지원을 위해 PR, 문제 및 스타 제출에 오신 것을 환영합니다. 프로그램이 실행될 때 문제가 발생하면 FAQ 목록을보고 문제로 이동하여 검색 할 수 있습니다. 개별 개발자는 오픈 소스 교환 그룹에 가입하여 더 많은 토론에 참여할 수 있으며 회사 사용자는 상담을 위해 제품 컨설턴트에게 연락 할 수 있습니다.