Bitune
1.0.0

Bitune: двунаправленная настройка обучения
[ Paper ] [ Website ]
Этот исходный код содержит реализацию Bitune, и его достаточно, чтобы воспроизвести результаты из статьи. Обратите внимание, что он использовался для изучения различных идей, и многие компоненты имеют разные имена или ссылаются на концепции, не упомянутые в статье.
Мы планируем выпустить чистую репо для Bitune в ближайшем будущем.
Справочник lm-evaluation-harness содержит хранилище из Eleutherai/LM-Evaluation-Harness, адаптированный к нашему методу. Вы можете установить его со следующей командой:
pip install -e lm-evaluation-harnesscommon_0.sh .wandb для ведения журнала. Обновление строки 57 eval.py с вашим именем пользователя wandb . instruct.sh .downstream.sh . Убедитесь установить правильное количество шагов обновлений (на основе значений, представленных в Приложении), и понаправляться соответствующими строками для имени набора данных, оценок (в самомниме) и имени метода.ablations.sh и запустите сценарий. models :pass_scale_k , pass_scale_v ).enforce_bidir функции forward() .forward() ответственной за вызов обертки Bitune ._pass_fn() в файле passes.py ):pass_scale_k , pass_scale_v ).peft устанавливает неактивные адаптеры как необработанные.PassScale , определенный в models/think_gemma.py ):forward() , которая применяет операцию микширования на основе варианта, указанного в config ( config.pass_type ). Наш окончательный метод определяется вариантом 607 (тот, который используется для экспериментов), и его упрощенная версия 801 . Были использованы следующие версии библиотек:
transformers==4.38.2peft==0.11.1datasets==2.18.0evaluate==0.4.0 @misc { kopiczko2024bitune ,
title = { Bitune: Bidirectional Instruction-Tuning } ,
author = { Dawid J. Kopiczko and Tijmen Blankevoort and Yuki M. Asano } ,
year = { 2024 } ,
eprint = { 2405.14862 } ,
archivePrefix = { arXiv } ,
primaryClass = { cs.CL }
}