YouTube Demo هنا! ⇩
تجريبي الياباني لها! ⇩
هذا مشروع عينة لإظهار كيفية استخدام LLM المحلي و TTS في وكيل الصوت. باستخدام RINNA/اليابانية-GPT-NEOX-3.6B-instruction-SFT مثل LLM و Style-Bert-Vits-2 كما TTS.
git clone https://github.com/teftef6220/Local_LLM_bot.git
cd Local_LLM_botpython -m venv venv
source venv/bin/activateتثبيت Pytorch و Torchaudio و Torchvision من الموقع الرسمي
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118تثبيت Cudnn من الموقع الرسمي
تثبيت متطلبات أخرى
pip install -r requirements.txtLLM لضبط البيانات مع بياناتك.
استخدم دفتر كولاب لضبط LLM. يمكنك استخدام دفتر الملاحظات.
يمكنك استخدام
كنموذج مسبق.
TTS الدقيقة مع بياناتك. يمكنك استخدام النمط-its-2 كنموذج مسبق.
ضع LLM DIR في دليل LLM_MODELS
llm_models
|
|---model_instance_dir
|
|---adapter_model.bin
|---adapter_model.json
ووضع DIR TTS المضبوط في دليل Voice_Models.
Voice_models
|
|---model_name
|
|---model_name_e100_s2000.safetensors
|---config.json
|---style_vectors.npy
اضبط التكوين في all_config.py
python llm_agent.pyكما قدمت روبوت Bluesky بسيط يستخدم LLM المحلي. يمكنك تشغيله مع الأمر التالي.

يمكنك ذكر الروبوت وسوف يرد الروبوت على ذكرك.
@latextex.bsky.social ねえ、名前教えてよ
تعيين ملف .env على النحو التالي
BS_USER_NAME = "your email address"
BS_PASSWORD = "your password"
وتشغيل الروبوت مع الأمر التالي.
python blue_sky_bot.pyيمكن لهذا الروبوت اكتشاف الإشارات والرد على إشاراتك استخدام LLM.
Litagin02/style-bert-vits2
Fishaudio/Bert-Vits2
تم ترخيص هذا المشروع بموجب ترخيص Ascero General Public V3.0 - راجع ملف الترخيص للحصول على التفاصيل.