Профессиональный проект, связанный с работой
В этом проекте я предоставил код и колябораторную ноутбук, которая облегчает процесс тонкой настройки модели параметров Alpaca 350M, первоначально разработанной в Стэнфордском университете. Конкретная модель, которая настраивается, имеет около 350 миллионов параметров, которые являются одной из меньших моделей альпаки (меньше моей предыдущей модели с тонкой настройкой).
Модель использует LORA с низкой оценкой для работы с меньшим количеством вычислительных ресурсов и параметров обучения. Мы используем BitsAndbytes для настройки и запуска в 8-битном формате, чтобы его можно было использовать в колаборторе. Кроме того, библиотека PEFT от HuggingFace была использована для точной настройки модели.
Гипер -параметры:
Кредит для оригинальной модели: Qiyuan GE
Тонко настроенная модель: Ryanair/Alpaca-350M-Fine-Tuned (Huggingface)