Dieses Projekt ist eine Implementierung eines modularen Telegrammbots auf AioGram, der für die lokale ML -Inferenz mit Remote -Service -Unterstützung ausgelegt ist. Derzeit integriert in:
Beschleunigte LLM-Inferenzunterstützung: lama.cpp, mlc-llm und llama-mps
Remote LLM Inferenzunterstützung: Oobabooga/Text-Generation-Webui, LoStruins/Koboldcpp und llama.cpp Server
Kompatibilitätstabelle ist hier verfügbar
Entwicklung von Vorgänger Botalität i
Mit einem benutzerfreundlichen Webui versandt, können Sie Befehle ausführen und mit dem Bot direkt im Webui sprechen.
Sie können es hier finden (bald kommen)
Einige Versionen haben Bruchänderungen. Weitere Informationen finden Sie unter Changelog -Datei
[Bot]
[LLM]
[SD]
[TTS]
[Stt]
stt_autoreply_mode none ist, erkennt er Sprachnachrichten und antwortet ihnen mit LLM- und TTS -Modulen auf sie[TTA]
active_modules hinzugefügt tta.env.example -Datei und benennen Sie die Kopie in .env um, fügen Sie die .Env -Datei nicht zu Ihren Commits hinzu!.env -Datei einpip install -r requrements.txtpip install -r requrements-tts.txt und pip install -r requrements-llm.txt verwenden möchten. Für Speech-to-Text-PIP-Installation-Run pip install -r requrements-stt.txt , für Text-to-audio-Ausführen pip install -U git+https://[email protected]/facebookresearch/audiocraft#egg=audiocraft--api -Flag ausgeführt wirdtts_voices und Pfad zu ihrem Verzeichnis in tts_path einpython dashboard.py aus, andernfalls führen Sie den Bot mit python bot.py ausPython3.10+ wird aufgrund der Aiogrammkompatibilität empfohlen.
python3.10 -m torch.distributed.launch --use_env bot.pyremote_ob -Backendremote_lcpp LLM Backend -Option (Obsidian -Modell mit Multimodalität getestet)Stellen Sie sicher, dass Sie über genügend RAM / VRAM verfügen, um Modelle auszuführen.
Laden Sie die Gewichte (und den Code bei Bedarf) für ein großes Sprachmodell herunter
Stellen Sie in .EnV -Datei sicher, dass sich "llm" in active_modules befindet, und setzen Sie dann fest:
llm_paths - Ändern Sie die von Ihnen heruntergeladenen Modell (en) von Modellen (n)
llm_backend - Wählen Sie aus pytorch , llama.cpp , mlc_pb , remote_ob , remote_lcpp llm_python_model_type = Wenn Sie pytorch in der vorherigen Option festlegen, setzen Sie den Modelltyp, den Sie verwenden möchten, gpt2 , gptj , llama, llama, llama, llama, llama, und llama und llama, und allom, gptj, llama, llama, llama, llama, und llama und llama, und auto_hf , gpptj, llama_orig , llama, llama_hf , und
llm_character = ein Zeichen Ihrer Wahl, aus characters , beispielsweise characters.gptj_6B_default .
llm_assistant_chronicler = ein Eingang/Ausgangsformatierer/Parser für die Assistentenaufgabe, kann instruct oder raw werden, nicht ändern, wenn Sie mlc_pb nicht verwenden.
llm_history_grouping = user , um den Verlauf mit jedem Benutzer separat zu speichern oder den chat -Historie mit allen Benutzern in diesem Chat zu speichern
llm_assistant_use_in_chat_mode = True / False Wenn falsch, verwenden Sie den Befehl, um die Modellfragen ohne Eingabeverlauf zu stellen. Wenn wahr, werden alle Nachrichten als Fragen behandelt.
Für lama.cpp: Stellen Sie sicher, dass Sie einen C ++-Compiler haben, dann alle erforderlichen Flags einlegen, um die GPU-Unterstützung zu aktivieren, und installieren Sie es pip install llama-cpp-python , download Modellgewichte und ändern Sie den Pfad in llm_paths .
Befolgen Sie für MLC-LlM die Installationsanweisungen aus den Dokumenten, klonen Sie dann MLC-Chatbot und geben Sie 3 Pfade in llm_paths ein. Verwenden Sie mit llm_assistant_use_in_chat_mode=True und mit raw Chronist.
Setzen Sie für oobabooga webui und kobold.cpp, anstatt llm_paths anzugeben, llm_host , llm_active_model_type auf remote_ob und setzen Sie das llm_character auf eins mit demselben Eingabeaufforderung / Vorsatz wie Ihr Modell. Führen Sie den Server mit -API -Flag aus.
Starten Sie für LLAMA.CPP C remote_lcpp Server den ./server , setzen Sie llm_active_model_type URL in llm_host und setzen
Senden Sie eine Nachricht an Ihren Bot mit dem Befehl /TTI -H, um weitere Informationen zur Verwendung einer stabilen Diffusion im Bot und /tTS -H für TTS -Modul zu verwenden. Der Bot verwendet dieselben Befehle wie Sprachnamen in der Konfigurationsdatei für TTS. Versuchen Sie /LLM -Befehl für LLM -Moduldetails. LLM standardmäßig zum Chat -Modus für Modelle, die es unterstützen, kann der Assistent mit /Ask -Befehl aufgerufen werden
Lizenz: Der Kodex dieses Projekts ist derzeit unter CC BY-NC-SA 4.0-Lizenz verteilt. Bibliotheken von Drittanbietern haben möglicherweise unterschiedliche Lizenzen.