Ce dépôt contient du code pour affiner les modèles de grande langue (LLMS) avec un ensemble de données célèbres.
Les méthodes prises en charge de la fusion sont en profondeur, Lora ou Qlora.
À l'origine, le repo a téléchargé et converti les poids du modèle pour GPTJ alors qu'il n'a pas encore été ajouté au package de transformateur HuggingFace. Ce code peut encore être vu sous la branche original_youtube .
/quotes_dataset contient l'ensemble de données correctement formaté pour un réglage fin. Voir Repo pour faire cet ensemble de données ici
/finetuning_repo contient du code originaire du dépôt ici que j'ai modifié pour travailler avec plus de modèles et avec plus de méthodes.
Si vous avez besoin d'une aide professionnelle rémunérée, qui est disponible via cet e-mail
Voir l'ancienne vidéo du code de réapprovisionnement original ici pour un tutoriel vidéo.
Une vidéo plus mise à jour pour l'utilisation du modèle HuggingFace peut être vue ici
Accédez à la branche original_youtube , c'est que vous voulez voir le code, mais je vous recommande fortement d'utiliser des méthodes plus modernes
La procédure pas à pas mise à jour utilise Nvidia-Docker pour retirer le mal de tête d'une grande partie du processus.
Si vous avez un système Linux 64 bits et que vous avez besoin de pilotes pour un A100, vous pouvez exécuter une commande comme celle-ci pour être configurée.
wget https://us.download.nvidia.com/tesla/515.86.01/NVIDIA-Linux-x86_64-515.86.01.run
Vous exécuterez ensuite le programme téléchargé avec Sudo.
chmod 777 NVIDIA-Linux-x86_64-515.86.01.run
sudo ./NVIDIA-Linux-x86_64-515.86.01.run
build_image.sh . Si vous recevez une erreur sur le fait de ne pas trouver l'image Docker, mettez à jour vers une nouvelle version CUDA. Les images sont périodiquement obsolètes. Ensuite, ouvrez un RP afin que vous puissiez résoudre ce problème pour d'autres. La construction de l'image Docker peut prendre plusieurs minutes.run_image.sh . Ce script exécute l'image Docker qui vient d'être construite et monte le répertoire actuel vers /workspace à l'intérieur du conteneur Docker. Tous les GPU du système seront passés. De plus, pour empêcher le téléchargement de modèles chaque fois que ce conteneur est exécuté, votre .cache sera également passé.