Projet professionnel lié au travail
Dans ce projet, j'ai fourni du code et un cahier colaboratoire qui facilite le processus de réglage fin d'un modèle de paramètres alpaca 3B développé à l'origine à l'Université de Stanford. Le modèle particulier qui est affiné a environ 3 milliards de paramètres, ce qui est l'un des plus petits modèles d'alpaga.
Le modèle utilise LORA d'adaptation de faible rang pour fonctionner avec moins de ressources de calcul et de paramètres de formation. Nous utilisons BitSandBytes pour configurer et exécuter dans un format 8 bits afin qu'il puisse être utilisé sur le colaboratoire. De plus, la bibliothèque PEFT de HuggingFace a été utilisée pour affiner le modèle.
Hyper Paramètres:
Crédit pour le modèle original: Xinyang (Young) Geng et Hao Liu de OpenLM Research
Modèle affiné: Ryanair / Alpaca-3B-Fine-Tuned (Huggingface)