Projet professionnel lié au travail
Dans ce projet, j'ai fourni du code et un cahier colaboratoire qui facilite le processus de réglage fin d'un modèle de paramètres alpaca 350m développé à l'origine à l'Université de Stanford. Le modèle particulier qui est affiné a environ 350 millions de paramètres, ce qui est l'un des plus petits modèles d'alpaga (plus petit que mon modèle précédent pour régler).
Le modèle utilise LORA d'adaptation de faible rang pour fonctionner avec moins de ressources de calcul et de paramètres de formation. Nous utilisons BitSandBytes pour configurer et exécuter dans un format 8 bits afin qu'il puisse être utilisé sur le colaboratoire. De plus, la bibliothèque PEFT de HuggingFace a été utilisée pour affiner le modèle.
Hyper Paramètres:
Crédit pour le modèle original: Qiyuan GE
Modèle affiné: Ryanair / alpaca-350m-fined (HuggingFace)