Ce projet est une implémentation d'un bot télégramme modulaire basé sur AIOGRAM, conçu pour l'inférence ML locale avec le support de service à distance. Actuellement intégré à:
ACCÉLÉRATED LLM INFERFED Soutien: LLAMA.CPP, MLC-LLM et LLAMAM-MPS
Prise en charge de l'inférence LLM à distance: Oobabooga / Génération de texte-Web, Lostruins / Koboldcpp et Llama.cpp Server
Le tableau de compatibilité est disponible ici
Évolué à partir de la botalité prédécesseur i
Expédié avec un Webui facile à utiliser, vous pouvez exécuter des commandes et parler avec le bot dans le webui.
Vous pouvez le trouver ici (à venir bientôt)
Certaines versions ont des modifications de rupture, voir le fichier Changelog pour plus d'informations
[Bot]
[LLM]
[SD]
[TTS]
[STT]
stt_autoreply_mode n'est pas none , il reconnaît les messages vocaux et les répond avec des modules LLM et TTS[TTA]
tta à active_modules.env.example Fichier et renommer la copie sur .env , n'ajoutez pas le fichier .env à vos validations!.envpip install -r requrements.txtpip install -r requrements-tts.txt et pip install -r requrements-llm.txt Si vous souhaitez utiliser LLM, vous aurez probablement besoin également d'une nouvelle version de Pytorch. Pour la parole à Text Run pip install -r requrements-stt.txt , pour le texte à audio run pip install -U git+https://[email protected]/facebookresearch/audiocraft#egg=audiocraft--api Flagtts_voices et le chemin d'accès à leur répertoire dans tts_pathpython dashboard.py , sinon exécutez le bot avec python bot.pyPython3.10 + est recommandé, en raison de la compatibilité des AIogrammes, si vous rencontrez des problèmes de chuchotement ou de journalisation, veuillez mettre à jour Numpy.
python3.10 -m torch.distributed.launch --use_env bot.pyremote_obremote_lcpp LLM Backend Option (Modèle d'obsidien avec Multimodality Tested)Assurez-vous que vous avez suffisamment de RAM / VRAM pour exécuter des modèles.
Téléchargez les poids (et le code si nécessaire) pour tout modèle de langue grande
Dans le fichier .env, assurez-vous que "llm" est dans active_modules , puis définissez:
llm_paths - Changez le (s) chemin (s) du ou des modèles que vous avez téléchargés
llm_backend - Sélectionnez parmi pytorch , llama.cpp , mlc_pb , remote_ob , remote_lcpp llm_python_model_type = Si vous définissez pytorch dans l'option précédente, définissez le type de modèle que vous souhaitez utiliser, il peut être gpt2 , gptj , llama_orig , llama_hf et auto_hf .
llm_character = un caractère de votre choix, dans le répertoire characters , par exemple characters.gptj_6B_default , les fichiers de caractères ont également des modèles d'invite et des options de configuration du modèle optimales pour un modèle spécifique, n'hésitez pas à modifier les fichiers de caractères, à modifier leur personnalité et à utiliser avec d'autres modèles.
llm_assistant_chronicler = un formateur / analyseur d'entrée / sortie pour la tâche de l'assistant, peut être instruct ou raw , ne changez pas si vous n'utilisez pas mlc_pb .
llm_history_grouping = user pour stocker l'historique avec chaque utilisateur séparément ou chat pour stocker l'historique du chat de groupe avec tous les utilisateurs de ce chat
llm_assistant_use_in_chat_mode = True / False Lorsque FAUX, Utilisez / demandez à la commande de poser les questions du modèle sans aucun historique d'entrée, lorsque TRUE, tous les messages sont traités comme des questions.
Pour llama.cpp: assurez-vous que vous avez un compilateur C ++, puis mettez tous les indicateurs nécessaires pour activer la prise en charge du GPU et l'installer pip install llama-cpp-python , télécharger les poids du modèle et modifier le chemin dans llm_paths .
Pour MLC-LLM, suivez les instructions d'installation des documents, puis clone MLC-Chatbot et mettez 3 chemins dans llm_paths . Utilisez avec llm_assistant_use_in_chat_mode=True et avec le chroniqueur raw .
Pour Oobabooga Webui et Kobold.cpp, au lieu de spécifier llm_paths , définissez llm_host , définissez llm_active_model_type sur remote_ob et définissez le llm_character à celui qui a le même format / préréglage invite que votre modèle. Exécutez le serveur avec le drapeau --api.
Pour LLAMA.CPP C-Server, démarrez le ./server , définissez son URL dans llm_host et définissez llm_active_model_type sur remote_lcpp , pour la multimodalité, veuillez vous référer à ce thread
Envoyez un message à votre bot avec la commande / tti -h pour plus d'informations sur la façon d'utiliser une diffusion stable dans le bot, et / tts -h pour le module TTS. Le bot utilise les mêmes commandes que les noms vocaux dans le fichier de configuration pour TTS. Commande essayez / LLM pour les détails du module LLM. LLM par défaut est le mode de chat pour les modèles qui le prennent en charge, l'assistant peut être appelé avec / demande de commande
Licence: Le code de ce projet est actuellement distribué en vertu de la licence CC By-NC-SA 4.0, les bibliothèques tierces pourraient avoir des licences différentes.