Este repositorio contiene código para ajustar los modelos de lenguaje grande (LLMS) con un conjunto de datos de citas famosas.
Los métodos compatibles de Finetuning son Deepspeed, Lora o Qlora.
Originalmente, el repositorio descargó y convirtió los pesos del modelo para GPTJ cuando aún no se agregó al paquete Huggingface Transformer. Ese código aún se puede ver en la rama original_youtube .
/quotes_dataset contiene el conjunto de datos correctamente formateado para ajustar. Vea el repositorio para hacer este conjunto de datos aquí
/finetuning_repo contiene código originalmente del repositorio aquí que he modificado para trabajar con más modelos y con más métodos.
Si necesita ayuda profesional pagada, eso está disponible a través de este correo electrónico
Vea el video antiguo del código de repositorio original aquí para un video tutorial.
Se puede ver un video más actualizado para usar el modelo Huggingface
Vaya a la sucursal original_youtube , ¿desea ver el código, pero le recomiendo que use métodos más modernos?
El tutorial actualizado utiliza Nvidia-Docker para sacar el dolor de cabeza de gran parte del proceso.
Si tiene un sistema Linux de 64 bits y necesita controladores para un A100, puede ejecutar un comando como este para configurar.
wget https://us.download.nvidia.com/tesla/515.86.01/NVIDIA-Linux-x86_64-515.86.01.run
Luego ejecutará el programa descargado con sudo.
chmod 777 NVIDIA-Linux-x86_64-515.86.01.run
sudo ./NVIDIA-Linux-x86_64-515.86.01.run
build_image.sh . Si recibe un error al no poder encontrar la imagen Docker, actualice una nueva versión CUDA. Las imágenes están periódicamente en desuso. Luego abra un PR para que pueda solucionar este problema para los demás. Construir la imagen Docker puede llevar muchos minutos.run_image.sh . Este script ejecuta la imagen Docker que se acaba de construir y monta el directorio actual a /workspace dentro del contenedor Docker. Se pasarán todas las GPU en el sistema. Además, para evitar la descarga de modelos cada vez que se ejecute este contenedor, su .cache también se pasará.