Dieses Repository implementiert den memarageeffizienten stochastischen Varianzalgorithmus (MEZO-SVRG) für die stochastische Varianz-reduzierte Gradient (vorab geschlossenem Umarmungsgesicht LMS). Als Baselines implementieren wir auch speichereffizientes ZO-Optimierer (MEZO) und SGD (FO-SGD) erster Ordnung. Das Repository ist in Pytorch geschrieben und nutzt das Pytorch -Blitzgerüst.
Um die entsprechende Python -Umgebung zu installieren, verwenden Sie den Befehl
conda create --name zo_opt python=3.9
conda activate zo_opt
python -m pip install -r requirements.txtDieses Repository implementiert den Mezo-SVRG-Algorithmus und ermöglicht die Feinabstimmung auf einem Bereich von Sprachmodellen mithilfe des Datensatzes für Kleber-Benchmark. Um Experimente auszuführen, führen Sie das Bash -Skript 'fellune_llm.sh' aus.
Das Skript unterstützt die folgenden Modelle:
Das Skript unterstützt die folgenden Kleberaufgaben:
Geben Sie den Feinabstimmungsalgorithmus an, indem Sie einen der folgenden {'fo', 'zo', 'zosvrg'} übergeben. Die genauen Hyperparametereinstellungen, mit denen die Tabellen/Zahlen im Papier erzeugt werden, sind im Anhang bereitgestellt.
Bitte erwägen Sie, unser Papier zu zitieren, wenn Sie unseren Code verwenden:
@misc{gautam2024variancereduced,
title={Variance-reduced Zeroth-Order Methods for Fine-Tuning Language Models},
author={Tanmay Gautam and Youngsuk Park and Hao Zhou and Parameswaran Raman and Wooseok Ha},
year={2024},
eprint={2404.08080},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
Weitere Informationen finden Sie unter Beitrag.
Dieses Projekt ist unter der Lizenz Apache-2.0 lizenziert.