Demonstração do YouTube aqui! ⇩
Demoção japonesa ela! ⇩
Este é um projeto de amostra para demonstrar como usar o LLM e o TTS locais no agente de voz. Usando Rinna/Japanese-GPT-Neox-3.6B-Instrução-SFT como LLM e Style-Bert-Vits-2 como TTS.
git clone https://github.com/teftef6220/Local_LLM_bot.git
cd Local_LLM_botpython -m venv venv
source venv/bin/activateInstale Pytorch e Torchaudio e Torchvision no site oficial
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118Instale o CUDNN no site oficial
Instalar outros requisitos
pip install -r requirements.txtTune LLM com seus dados.
Use o Notebook Colab para ajustar o LLM. Você pode usar este notebook.
Você pode usar
como um modelo pré -treinamento.
TUN TTS fino com seus dados. Você pode usar o Style-Bert-Vits-2 como um modelo pré-treinamento.
Coloque seu diretório LLM de ajuste fina no diretório llm_models
llm_models
|
|---model_instance_dir
|
|---adapter_model.bin
|---adapter_model.json
E coloque seu diretório TTS Dir no Voice_models.
Voice_models
|
|---model_name
|
|---model_name_e100_s2000.safetensors
|---config.json
|---style_vectors.npy
Defina a configuração em all_config.py
python llm_agent.pyTambém forneceu um bot bluesky simples que usa o LLM local. Você pode executá -lo com o seguinte comando.

Você pode mencionar o bot e o bot responderá à sua menção.
@latextex.bsky.social ねえ、名前教えてよ
Defina o arquivo .env como abaixo
BS_USER_NAME = "your email address"
BS_PASSWORD = "your password"
e execute o bot com o seguinte comando.
python blue_sky_bot.pyEste bot pode detectar menções e responder às suas menções, use LLM.
litagin02/style-bert-vits2
Fishaudio/Bert-Vits2
Este projeto está licenciado sob a licença pública geral do Affero v3.0 - consulte o arquivo de licença para obter detalhes.