Профессиональный проект, связанный с работой
В этом проекте я предоставил код и колябораторную ноутбук, которая облегчает процесс тонкой настройки модели параметров Alpaca 3B, первоначально разработанной в Стэнфордском университете. Конкретная модель, которая настраивается, имеет около 3 миллиардов параметров, что является одной из меньших моделей альпаки.
Модель использует LORA с низкой оценкой для работы с меньшим количеством вычислительных ресурсов и параметров обучения. Мы используем BitsAndbytes для настройки и запуска в 8-битном формате, чтобы его можно было использовать в колаборторе. Кроме того, библиотека PEFT от HuggingFace была использована для точной настройки модели.
Гипер -параметры:
Кредит на оригинальную модель: Синьян (Янг) Генг и Хао Лю из Researlm Research
Тонко настроенная модель: Ryanair/Alpaca-3B-Fine-Tuned (HuggingFace)