Professionelles arbeitsbezogenes Projekt
In diesem Projekt habe ich Code und ein Colaboratory-Notizbuch bereitgestellt, das den Feinabstimmungsprozess eines Alpaca 350m-Parametermodells erleichtert, das ursprünglich an der Stanford University entwickelt wurde. Das spezielle Modell, das fein abgestimmt wird, hat rund 350 Millionen Parameter, was eines der kleineren Alpaka-Modelle ist (kleiner als mein vorheriges feinstimmiges Modell).
Das Modell verwendet LORA mit niedrigem Anpassung, um mit weniger Rechenressourcen und Trainingsparametern auszuführen. Wir verwenden BitsandBytes, um in einem 8-Bit-Format einzurichten und auszuführen, damit es auf Colaboratory verwendet werden kann. Darüber hinaus wurde die PEFT-Bibliothek von Huggingface zur Feinabstimmung des Modells verwendet.
Hyperparameter:
Gutschrift für Originalmodell: Qiyuan GE
Feinabstimmungsmodell: Ryanair/Alpaca-350m-Fine-abgestimmt (Umarmung)