LLM-резолирование-символы
Fine-Tuning LLMS для текстовых рекомендаций
Этот проект исследует потенциал тонкой настройки крупных языковых моделей (LLMS) специально для текстовых рекомендаций, направленных на повышение точности и удовлетворенности пользователей. Он вводит новый быстрый механизм, который превращает информацию о взаимоотношениях в текст естественного языка, позволяя LLM интерпретировать взаимодействие с пользователями и давать более осознанные рекомендации.
Обзор проекта
Ключевые моменты:
- Использовал набор данных обзора Amazon 2018 для разработки персонализированной системы рекомендаций по продукту.
- Внедрены и сравнивали производительность двух крупных языковых моделей: Mistral-7B и Tinyllama.
- Применяемые передовые методы, такие как LORA (адаптация с низким уровнем ранга) и QLORA (квантовая LORA) для эффективной точной настройки.
- Разработал новую стратегию подсказок для преобразования истории взаимодействия пользователей в входные данные естественного языка для моделей.
- Достигнут более 98% точности в прогнозировании следующих покупок продуктов пользователей с использованием тонкой настройки Tinyllama Model.
- Продемонстрировали, что меньшие, специализированные модели могут превзойти более крупные модели для конкретных задач при правильной настройке.
- Проводил анализ ошибок, чтобы определить закономерности в неправильных прогнозах и потенциальных областей для улучшения.
- Изучили баланс между размером модели, вычислительной эффективностью и точностью прогнозирования в системах рекомендаций.
Проект фокусируется на демонстрации эффективности тонких настраивающих LLM для рекомендационных задач с использованием разнообразного и обширного набора данных. Реализация включает в себя следующие этапы:
Извлечение данных и предварительная обработка :
- Извлеченные подмножества данных Amazon Review и преобразовали их в DataFrames.
- Удалены ненужные столбцы.
- Отфильтровал пользователей с недостаточной историей покупки.
- Преобразовал оставшиеся данные в подсказки, формируя вход для LLM.
Быстрое инженер :
- Исследовали различные методы подсказования.
- Установлен на трех частях для каждой подсказки: инструкция, входные данные и вывод истинного вывода.
- Эта структура предоставляет модель четкую задачу, соответствующую информацию и желаемый формат вывода.
Реализация модели :
- Использовал библиотеки AI и Huggingface для предварительно обученных моделей и инструментов настройки.
- Считается Qlora, метод улучшения производительности модели.
- Созданы объекты консолидированного
SFTTrainer и TrainingArguments для централизации корректировок гиперпараметра во время обучения.