Этот репо содержит код для тонкой настройки больших языковых моделей (LLMS) с известным набором данных.
Поддерживаемыми методами создания являются Deepspeed, Lora или Qlora.
Первоначально, репо скачал и преобразовал веса модели для GPTJ, когда он еще не был добавлен в пакет трансформаторов HuggingFace. Этот код все еще можно увидеть под ветвью original_youtube .
/quotes_dataset содержит набор данных правильно отформатированный для точной настройки. См. Репо для создания этого набора данных здесь
/finetuning_repo содержит код, изначально из репо, который я изменил для работы с большим количеством моделей и с большим количеством методов.
Если нуждаются в оплачиваемой профессиональной помощи, это доступно по этому электронной почте
Смотрите старое видео для оригинального репо -кода здесь для видеоурок.
Здесь можно увидеть более обновленное видео для использования модели HuggingFiceface
Перейдите в филиал original_youtube , вы хотите увидеть код, но я настоятельно рекомендую вам использовать более современные методы
В обновленном пошаговом руководстве используется Nvidia-Docker, чтобы вывести головную боль с большей части процесса.
Если у вас есть 64-разрядная система Linux, и вам нужны драйверы для A100, вы можете запустить такую команду, чтобы получить настройку.
wget https://us.download.nvidia.com/tesla/515.86.01/NVIDIA-Linux-x86_64-515.86.01.run
Затем вы запустите загруженную программу с Sudo.
chmod 777 NVIDIA-Linux-x86_64-515.86.01.run
sudo ./NVIDIA-Linux-x86_64-515.86.01.run
build_image.sh . Если вы получаете ошибку о том, что вы не сможете найти изображение Docker, обновите более новую версию CUDA. Изображения периодически устарели. Затем откройте PR, чтобы вы могли решить эту проблему для других. Строительство изображения Docker может занять много минут.run_image.sh . Этот сценарий запускает изображение Docker, которое было только что построено, и соединяет текущий каталог в /workspace внутри контейнера Docker. Все графические процессоры в системе будут пропущены. Кроме того, чтобы предотвратить загрузку моделей каждый раз, когда этот контейнер будет запущен, ваш .cache также будет проходить.