YouTube -Demo hier! ⇩
Japanische Demo sie! ⇩
Dies ist ein Beispielprojekt, um zu demonstrieren, wie lokale LLM und TTs in Voice Agent verwendet werden. Verwenden von Rinna/Japanisch-GPT-NEOX-3,6B-INTRUKTION-SFT als LLM und Style-Bert-Vits-2 als TTS.
git clone https://github.com/teftef6220/Local_LLM_bot.git
cd Local_LLM_botpython -m venv venv
source venv/bin/activateInstallieren Sie Pytorch und Torchaudio und Torchvision von der offiziellen Website
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118Installieren Sie Cudnn von der offiziellen Website
Weitere Anforderungen installieren
pip install -r requirements.txtFine-Tune LLM mit Ihren Daten.
Verwenden Sie das Colab-Notebook, um LLM zu optimieren. Sie können dieses Notebook verwenden.
Sie können verwenden
als vorbereitete Modell.
Fein-TTS mit Ihren Daten. Sie können Style-Bert-Vits-2 als vorgezogenes Modell verwenden.
Stellen Sie Ihr fein abgestimmter LLM-Dir in LLM_Models-Verzeichnis ein
llm_models
|
|---model_instance_dir
|
|---adapter_model.bin
|---adapter_model.json
und geben Sie Ihr fein abgestimmter TTS-Dir in Voice_Models-Verzeichnis.
Voice_models
|
|---model_name
|
|---model_name_e100_s2000.safetensors
|---config.json
|---style_vectors.npy
Setzen Sie die Konfiguration in All_Config.py
python llm_agent.pyBot auch einen einfachen Bluesky -Bot, der das lokale LLM verwendet. Sie können es mit dem folgenden Befehl ausführen.

Sie können den Bot erwähnen und der Bot antwortet auf Ihre Erwähnung.
@latextex.bsky.social ねえ、名前教えてよ
Setzen Sie die Datei .Env wie unten
BS_USER_NAME = "your email address"
BS_PASSWORD = "your password"
und führen Sie den Bot mit dem folgenden Befehl aus.
python blue_sky_bot.pyDieser Bot kann Erwähnungen erkennen und auf Ihre Erwähnungen antworten. Verwenden Sie LLM.
Litagin02/Style-Bert-Vits2
Fishaudio/Bert-Vits2
Dieses Projekt ist unter der Affero General Public Lizenz v3.0 lizenziert - Einzelheiten finden Sie in der Lizenzdatei.