LLM-MEM?
Улучшенная языковая модель с хранением семантической памяти
Реализация на основе Python, которая дополняет языковые модели с постоянной семантической памятью с использованием векторных внедрений и поиска сходства.
? Функции
- Семантический подъем разговоров с использованием nltk
- Генерация векторных внедрений с использованием трансформаторов предложений
- Косинус на основе сходства контекст
- Постоянное хранилище памяти с использованием векторной базы данных
- Автоматическая инъекция контекста для более когерентных ответов
- Smart Text Chunking с сохранением кодового блока
Технический стек
-
sentence-transformers : для получения семантических встраиваний -
nltk : инструментарий для обработки естественного языка для манипуляции с текстами - Пользовательская интеграция LLM
- Векторный магазин для хранения и получения внедрения
- REST API конечные точки для векторных операций
? Предварительные условия
- ПРЕДЛОЖЕНИЯ Трансформаторы
- nltk
- запросы
- Google-Generativeai
Быстрый старт
- Клонировать репозиторий:
git clone https://github.com/Abhigyan126/LLM-MEM.git
cd LLM-MEM
- Установить зависимости:
pip install sentence-transformers nltk requests google-generativeai
- Создать .ENV -файл
- Запустите основной сценарий:
Как это работает
- Обработка текста : входящие сообщения обрабатываются и очищаются
- Генерация встраивания : преобразует текст в векторные встраивания
- Семантический поиск : находит соответствующие предыдущие контексты, используя сходство косинуса
- Интеграция контекста : объединяет соответствующую историю с текущим запросом
- Генерация ответов : генерирует ответ с использованием LLM с расширенным контекстом
- Хранение памяти : хранит новые взаимодействия для будущей ссылки
? Конфигурация
Система использует несколько настраиваемых параметров:
- Максимальная длина чанка: 2000 символов
- Минимальный размер куска: 100 символов
- Порог сходства: 0,5
- Ближайшие соседи по умолчанию: 10