Demo YouTube ici! ⇩
Demo japonais lui! ⇩
Ceci est un exemple de projet pour démontrer comment utiliser LLM local LLM et TTS dans l'agent vocal. Utilisation de Rinna / Japanese-GPT-Neox-3.6b-Istruction-SFT comme LLM et Style-Bert-Vits-2 comme TTS.
git clone https://github.com/teftef6220/Local_LLM_bot.git
cd Local_LLM_botpython -m venv venv
source venv/bin/activateInstallez Pytorch et Torchaudio et TorchVision à partir du site officiel
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118Installez CUDNN sur le site officiel
Installer une autre exigence
pip install -r requirements.txtFine-Tune LLM avec vos données.
Utilisez Colab Notebook pour affiner LLM. Vous pouvez utiliser ce cahier.
Vous pouvez utiliser
comme un modèle pré-entraîné.
Affinez les TT avec vos données. Vous pouvez utiliser Style-Bert-Vits-2 comme modèle pré-entraîné.
Mettez votre répertoire LLM à réglage fin dans le répertoire LLM_Models
llm_models
|
|---model_instance_dir
|
|---adapter_model.bin
|---adapter_model.json
Et mettez votre répertoire TTS à réglage fin dans le répertoire Voice_Models.
Voice_models
|
|---model_name
|
|---model_name_e100_s2000.safetensors
|---config.json
|---style_vectors.npy
Définir la configuration dans all_config.py
python llm_agent.pyA également fourni un simple bot bluesky qui utilise le LLM local. Vous pouvez l'exécuter avec la commande suivante.

vous pouvez mentionner le bot et le bot répondra à votre mention.
@latextex.bsky.social ねえ、名前教えてよ
Définir le fichier .env comme ci-dessous
BS_USER_NAME = "your email address"
BS_PASSWORD = "your password"
et exécutez le bot avec la commande suivante.
python blue_sky_bot.pyCe bot peut détecter les mentions et répondre à vos mentions à utiliser LLM.
litagin02 / style-bert-vits2
FishAudio / Bert-Vits2
Ce projet est sous licence en vertu de la licence publique générale d'Affero V3.0 - voir le fichier de licence pour plus de détails.