Этот проект представляет собой реализацию модульного бота Telegram на основе AIOGRAM, предназначенной для локального вывода ML с помощью удаленной поддержки обслуживания. В настоящее время интегрировано с:
Ускоренная поддержка вывода LLM: llama.cpp, MLC-LLM и Llama-MPS
Удаленная поддержка вывода LLM: Oobabooga/Text Generation-Webui, Lostruins/Koboldcpp и Llama.cpp Server
Таблица совместимости доступна здесь
Развивался из предшественника Ботальности I
Поставляемый с простым в использовании Webui, вы можете запускать команды и поговорить с ботом прямо в WebUI.
Вы можете найти его здесь (скоро)
Некоторые версии имеют нарушающие изменения, см. Файл Changelog для получения дополнительной информации
[Бот]
[LLM]
[SD]
[TTS]
[STT]
stt_autoreply_mode не является none , он распознает голосовые сообщения и отвечает им с помощью модулей LLM и TTS[TTA]
tta в active_modules.env.example и переименуйте копию в .env , не добавляйте файл .env в свои коммиты!.envpip install -r requrements.txtpip install -r requrements-tts.txt и pip install -r requrements-llm.txt Если вы хотите использовать LLM, вам, вероятно, также понадобится свежая версия Pytorch. Для речи-текста запустите pip install -r requrements-stt.txt для текста-а-а-а pip install -U git+https://[email protected]/facebookresearch/audiocraft#egg=audiocraft--apitts_voices и путь к их каталогу в tts_pathpython dashboard.py , в противном случае запустите бот с python bot.pyРекомендуется Python3.10+ из -за совместимости AIOGRAM, если у вас возникают проблемы с шепотом или журналом, пожалуйста, обновите Numpy.
python3.10 -m torch.distributed.launch --use_env bot.pyremote_obremote_lcpp LLM (модель обсидиана с протестированной мультимодальностью)Убедитесь, что у вас достаточно оперативной памяти / VRAM для запуска моделей.
Загрузите вес (и код, если это необходимо) для любой большой языковой модели
"llm" active_modules
llm_paths - изменить путь (ы) модели (ы), которые вы скачали
llm_backend - Выберите из pytorch , llama.cpp , mlc_pb , remote_ob , remote_lcpp llm_python_model_type = если вы устанавливаете pytorch в предыдущую опцию, установите тип модели, который вы хотите использовать, это может auto_hf gpt2 , gptj , llama_orig , llama_hf .
llm_character = A AR ARICE Your Action, из каталога characters , например, characters.gptj_6B_default GPTJ_6B_DEFAULT, файлы символов также имеют шаблоны быстрого и параметры конфигурации модели, оптимальные для конкретной модели, не стесняйтесь менять файлы символов, редактировать их личность и использование с другими моделями.
llm_assistant_chronicler = A Входной/ raw форматтер mlc_pb instruct .
llm_history_grouping = user для хранения истории с каждым пользователем отдельно или chat для хранения истории группового чата со всеми пользователями в этом чате
llm_assistant_use_in_chat_mode = True / False , когда FALSE используйте / задайте команду, чтобы задать модель вопросы без какой -либо истории ввода, когда TRUE TURE, все сообщения рассматриваются как вопросы.
Для llama.cpp: убедитесь, что у вас есть компилятор C ++, а затем поместите все необходимые флаги для включения поддержки GPU, и установите его pip install llama-cpp-python , загрузить веса модели и изменить путь в llm_paths .
Для MLC-LLM следуйте инструкциям по установке из документов, затем клонируйте MLC-Chatbot и поместите 3 пути в llm_paths . Используйте с llm_assistant_use_in_chat_mode=True и с raw HRONICLER.
Для oobabooga webui и kobold.cpp, вместо того, чтобы указать llm_paths , установите llm_host , установите llm_active_model_type remote_ob и установите llm_character Запустите сервер с флагом -API.
Для llama.cpp c-server запустите ./server , установите свой URL в llm_host и установите llm_active_model_type в remote_lcpp
Отправьте сообщение своему боту с помощью команды /tti -h для получения дополнительной информации о том, как использовать стабильную диффузию в BOT, и /TTS -H для модуля TTS. Бот использует те же команды, что и голосовые имена в файле конфигурации для TTS. Try /LLM Команда для сведений модуля LLM. LLM по умолчанию в режим чата для моделей, которые его поддерживают, помощника можно вызвать с помощью /Ask Command
Лицензия: Кодекс этого проекта в настоящее время распределен по лицензии CC BY-NC-SA 4.0, сторонние библиотеки могут иметь разные лицензии.