Local_LLM_bot
1.0.0
YouTube演示在這裡! ⇩
日本演示她! ⇩
這是一個示例項目,旨在演示如何在語音代理中使用本地LLM和TTS。將rinna/japesen-gpt-neox-3.6b-Instruction-sft用作LLM和style-bert-vits-2作為TTS。
git clone https://github.com/teftef6220/Local_LLM_bot.git
cd Local_LLM_botpython -m venv venv
source venv/bin/activate從官方網站安裝Pytorch和Torchaudio和Torchvision
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118從官方網站安裝Cudnn
安裝另一個要求
pip install -r requirements.txt用您的數據微調LLM。
使用COLAB筆記本進行微調LLM。您可以使用此筆記本。
您可以使用
作為預據的模型。
用您的數據微調TT。您可以將style-bert-vits-2用作驗證的模型。
將您的微調LLM DIR放入LLM_Models目錄中
llm_models
|
|---model_instance_dir
|
|---adapter_model.bin
|---adapter_model.json
並將微調的TTS DIR放入Voice_Models目錄中。
Voice_models
|
|---model_name
|
|---model_name_e100_s2000.safetensors
|---config.json
|---style_vectors.npy
在all_config.py中設置config
python llm_agent.py還提供了一個簡單的Bluesky機器人,該機器人使用本地LLM。您可以使用以下命令運行它。

您可以提及機器人,機器人將回复您的提及。
@latextex.bsky.social ねえ、名前教えてよ
設置.env文件如下
BS_USER_NAME = "your email address"
BS_PASSWORD = "your password"
並使用以下命令運行機器人。
python blue_sky_bot.py該機器人可以檢測到提及並回复您的提及使用LLM。
litagin02/style-bert-vits2
Fishaudio/Bert-Vits2
該項目已根據Affero通用公共許可證v3.0許可 - 有關詳細信息,請參見許可證文件。