Professionelles arbeitsbezogenes Projekt
In diesem Projekt habe ich Code und ein colaboratorisches Notizbuch bereitgestellt, das den Feinabstimmungsprozess eines Alpaca 3B-Parametermodells erleichtert, das ursprünglich an der Stanford University entwickelt wurde. Das spezielle Modell, das fein abgestimmt wird, hat rund 3 Milliarden Parameter, was eines der kleineren Alpaka-Modelle ist.
Das Modell verwendet LORA mit niedrigem Anpassung, um mit weniger Rechenressourcen und Trainingsparametern auszuführen. Wir verwenden BitsandBytes, um in einem 8-Bit-Format einzurichten und auszuführen, damit es auf Colaboratory verwendet werden kann. Darüber hinaus wurde die PEFT-Bibliothek von Huggingface zur Feinabstimmung des Modells verwendet.
Hyperparameter:
Gutschrift für Originalmodell: Xinyang (Young) Geng und Hao Liu von OpenLM Research
Feinabstimmungsmodell: Ryanair/Alpaca-3b-Fine-Abtun (Huggingface)