Proyek ini adalah implementasi bot telegram modular berdasarkan aiogram, yang dirancang untuk inferensi ML lokal dengan dukungan layanan jarak jauh. Saat ini terintegrasi dengan:
Dukungan inferensi LLM yang dipercepat: llama.cpp, mlc-llm dan llama-mps
Dukungan inferensi LLM jarak jauh: Oobabooga/Text-Generation-Webui, Lostruins/Koboldcpp dan Llama.cpp Server
Tabel Kompatibilitas tersedia di sini
Berevolusi dari botalitas pendahulunya i
Dikirim dengan webui yang mudah digunakan, Anda dapat menjalankan perintah dan berbicara dengan bot tepat di webui.
Anda dapat menemukannya di sini (segera hadir)
Beberapa versi mengalami perubahan, lihat file Changelog untuk informasi lebih lanjut
[Bot]
[LLM]
[SD]
[TTS]
[STT]
stt_autoreply_mode bukan none , ia mengenali pesan suara dan membalasnya dengan modul LLM dan TTS[TTA]
tta ke active_modules.env.example dan ganti nama salinan ke .env , jangan menambahkan file .env ke komit Anda!.envpip install -r requrements.txtpip install -r requrements-tts.txt dan pip install -r requrements-llm.txt Jika Anda ingin menggunakan LLM, Anda mungkin juga akan memerlukan versi baru PyTorch. Untuk ucapan-ke-teks jalankan pip install -r requrements-stt.txt , untuk teks-ke-audio run pip install -U git+https://[email protected]/facebookresearch/audiocraft#egg=audiocraft--api Flagtts_voices dan jalur ke direktori mereka di tts_pathpython dashboard.py , jika tidak jalankan bot dengan python bot.pyPython3.10+ direkomendasikan, karena kompatibilitas aiogram, jika Anda mengalami masalah dengan bisikan atau logging, harap perbarui Numpy.
python3.10 -m torch.distributed.launch --use_env bot.pyremote_ob yang samaremote_lcpp (Model Obsidian w/ Multimodality Tes)Pastikan Anda memiliki cukup RAM / VRAM untuk menjalankan model.
Unduh bobot (dan kode jika diperlukan) untuk model bahasa besar
Dalam file .env, pastikan bahwa "llm" ada di active_modules , lalu atur:
llm_paths - ubah jalur model yang Anda unduh
llm_backend - pilih dari pytorch , llama.cpp , mlc_pb , remote_ob , remote_lcpp llm_python_model_type = llama_hf Anda mengatur pytorch di opsi sebelumnya, atur jenis model yang ingin Anda gunakan, itu bisa gpt2 , gptj , llama_orig auto_hf
llm_character = Karakter pilihan Anda, dari direktori characters , misalnya characters.gptj_6B_default , file karakter juga memiliki templat yang cepat dan opsi konfigurasi model optimal untuk model tertentu, jangan ragu untuk mengubah file karakter, mengedit kepribadian mereka dan menggunakan dengan model lain.
llm_assistant_chronicler = Formatter/output/parser input untuk tugas asisten, dapat instruct atau raw , jangan berubah jika Anda tidak menggunakan mlc_pb .
llm_history_grouping = user untuk menyimpan riwayat dengan setiap pengguna secara terpisah atau chat untuk menyimpan riwayat obrolan grup dengan semua pengguna dalam obrolan itu
llm_assistant_use_in_chat_mode = True / False ketika false, gunakan / ajukan perintah untuk mengajukan pertanyaan model tanpa riwayat input, bila benar, semua pesan diperlakukan sebagai pertanyaan.
Untuk llama.cpp: Pastikan Anda memiliki kompiler C ++, lalu letakkan semua bendera yang diperlukan untuk mengaktifkan dukungan GPU, dan instal pip install llama-cpp-python , unduh bobot model dan ubah jalur di llm_paths .
Untuk MLC-LLM, ikuti instruksi instalasi dari dokumen, lalu klon MLC-CHATBOT, dan letakkan 3 jalur di llm_paths . Gunakan dengan llm_assistant_use_in_chat_mode=True dan dengan penulis sejarah raw .
Untuk oobabooga webui dan kobold.cpp, alih -alih menentukan llm_paths , atur llm_host , atur llm_active_model_type ke remote_ob dan atur llm_character ke yang memiliki format prompt / preset yang sama dengan model Anda. Jalankan server dengan —ApI Flag.
Untuk llama.cpp c-server, mulai ./server , atur URL di llm_host dan atur llm_active_model_type ke remote_lcpp , untuk multimodality silakan merujuk ke utas ini
Kirim pesan ke bot Anda dengan perintah /tti -h untuk info lebih lanjut tentang cara menggunakan difusi stabil di bot, dan /tts -h untuk modul TTS. Bot menggunakan perintah yang sama dengan nama suara dalam file konfigurasi untuk TTS. Coba /perintah LLM untuk detail modul LLM. LLM Default ke mode obrolan untuk model yang mendukungnya, asisten dapat dipanggil dengan /meminta perintah
Lisensi: Kode proyek ini saat ini didistribusikan berdasarkan lisensi CC BY-SA 4.0, perpustakaan pihak ketiga mungkin memiliki lisensi yang berbeda.