YouTubeデモはこちら! ⇩
日本のデモ彼女! ⇩
これは、音声エージェントでローカルLLMとTTSを使用する方法を示すためのサンプルプロジェクトです。 rinna/japanes-gpt-neox-3.6b-instruction-sftをLLMとして、スタイルバートビット2をTTSとして使用します。
git clone https://github.com/teftef6220/Local_LLM_bot.git
cd Local_LLM_botpython -m venv venv
source venv/bin/activate公式ウェブサイトからPytorchとTorchaudio、Torchvisionをインストールします
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118公式ウェブサイトからcudnnをインストールします
別の要件をインストールします
pip install -r requirements.txtデータでLLMを微調整します。
Colab Notebookを使用してLLMを微調整します。このノートブックを使用できます。
使用できます
事前に守られたモデルとして。
データでTTSを微調整します。 Style-Bert-vits-2を優先モデルとして使用できます。
微調整されたLLM dirをllm_modelsディレクトリに置きます
llm_models
|
|---model_instance_dir
|
|---adapter_model.bin
|---adapter_model.json
微調整されたTTS dirをvoice_modelsディレクトリに入れます。
Voice_models
|
|---model_name
|
|---model_name_e100_s2000.safetensors
|---config.json
|---style_vectors.npy
all_config.pyで設定を設定します
python llm_agent.pyまた、ローカルLLMを使用するシンプルなブルースキーボットも提供しました。次のコマンドで実行できます。

あなたはボットに言及することができ、ボットはあなたの言及に返信します。
@latextex.bsky.social ねえ、名前教えてよ
以下のように.envファイルを設定します
BS_USER_NAME = "your email address"
BS_PASSWORD = "your password"
次のコマンドでボットを実行します。
python blue_sky_bot.pyこのボットは、言及を検出し、LLMを使用する言及に返信できます。
litagin02/style-bert-vits2
Fishaudio/Bert-vits2
このプロジェクトは、Affero General Public License v3.0に基づいてライセンスされています。詳細については、ライセンスファイルを参照してください。