該項目是基於AIPROMPOM的模塊化電報機器人的實現,該機器人是為遠程服務支持的本地ML推斷而設計的。目前與:
加速LLM推理支持:Llama.cpp,MLC-LLM和Llama-MPS
遠程LLM推理支持:oobabooga/text-generation-webui,lostruins/koboldcpp和llama.cpp服務器
兼容性表可在此處找到
從前任波特進化
使用易於使用的WebUI發貨,您可以運行命令並與WebUI中的機器人交談。
您可以在這裡找到它(即將推出)
某些版本有破壞性的更改,請參見ChangElog文件以獲取更多信息
[bot]
[LLM]
[SD]
[TTS]
[STT]
stt_autoreply_mode參數不是none[TTA]
tta添加到active_modules之後,可以與 /sfx和 /音樂命令一起使用.env.example文件並將副本重命名為.env ,請勿將.ENV文件添加到您的提交中!.env文件中設置電報機器人令牌和其他配置選項pip install -r requrements.txtpip install -r requrements-tts.txt和pip install -r requrements-llm.txt請安裝可選要求,如果您想使用LLM,則可能還需要新版本的Pytorch版本。對於語音到文本運行pip install -r requrements-stt.txt ,用於文本到audio run pip install -U git+https://[email protected]/facebookresearch/audiocraft#egg=audiocraft--api標誌運行tts_voices配置選項中,並在tts_path中通往其目錄的路徑python dashboard.py運行它,否則使用python bot.py運行機器人由於相應的兼容性,建議使用Python3.10+,如果您遇到耳語或伐木問題,請更新numpy。
python3.10 -m torch.distributed.launch --use_env bot.py運行bot。remote_ob後端remote_lcpp LLM後端選項(測試多模式的黑曜石模型)確保您有足夠的RAM / VRAM來運行模型。
為任何大語言模型下載權重(以及代碼)
在.env文件中,請確保"llm"在active_modules中,然後設置:
llm_paths更改下載模型的路徑llm_backend - select from pytorch , llama.cpp , mlc_pb , remote_ob , remote_lcpp llm_python_model_type = if you set pytorch in the previous option, set the model type that you want to use, it can be gpt2 , gptj , llama_orig , llama_hf and auto_hf .
llm_character =您選擇的角色,例如characters目錄,例如characters.gptj_6B_default ,字符文件還具有及時的模板和模型配置選項,最適合特定模型,可以隨意更改字符文件,編輯其個性並與其他型號一起使用。
llm_assistant_chronicler =用於助手任務的輸入/輸出格式/解析器,可以instruct或raw ,如果您不使用mlc_pb ,請不要更改。
llm_history_grouping = user與每個用戶單獨chat歷史llm_assistant_use_in_chat_mode = True / False時,當false時,使用 /要求命令提出模型問題而無需任何輸入歷史記錄,當true時,所有消息都將視為問題。
對於Llama.cpp:確保您有一個C ++編譯器,然後放置所有必要的標誌來啟用GPU支持,然後安裝IT pip install llama-cpp-python ,下載型號權重並更改llm_paths中的路徑。
對於MLC-LLM,請按照文檔的安裝說明,然後克隆MLC-Chatbot,然後在llm_paths中放置3個路徑。與llm_assistant_use_in_chat_mode=True和raw CHRONICLER一起使用。
對於Oobabooga webui和kobold.cpp,而不是指定llm_paths ,設置llm_host ,將llm_active_model_type設置為remote_ob ,並將llm_character設置為具有與模型相同提示格式 /預設的一個llm_character。使用-API標誌運行服務器。
對於llama.cpp c-server,啟動./server ,在llm_host中設置其URL,並將llm_active_model_type設置為remote_lcpp ,請參閱此線程
使用命令/TTI -H向機器人發送一條消息,以獲取有關如何在bot中使用穩定擴散的更多信息,而對於tts模塊,將消息發送到穩定的擴散和/tts -H 。該機器人在TTS中使用與配置文件中的語音名稱相同的命令。嘗試/llm命令獲取LLM模塊詳細信息。 llm默認用於支持它的模型的聊天模式,可以使用 /ask命令調用助手
許可證:該項目的代碼目前是根據CC BY-NC-SA 4.0許可證分配的,第三方庫可能具有不同的許可證。