distily
1.0.0
pip install -U "git+https://github.com/lapp0/distily.git"
Дидикально позволяет вам переоценить модель с помощью
Минимальный пример: distily_gpt2
Команда создать дистиллированный gpt2 только с 6 слоями:
python3 -m distily.run
--teacher_model_name_or_path gpt2
--output_dir distily_gpt2
--hub_model_id "distily/distily_gpt2"
--push_to_hub True
--student_model_config {"n_layers": 6}
--student_model_as_bitnet True
Полученная модель distily_gpt2 имеет (TODO: Объясните метрики).
Для получения дополнительных примеров просмотрите документацию примеров.
Чтобы подтолкнуть к хабу, вы должны подготовить токен своего концентратора
HF_WRITE=<your hub token> python3 -c "from huggingface_hub.hf_api import HfFolder; HfFolder.save_token('${HF_WRITE}')"
TODO: совершить связанные документы после завершения
Используя дидиско
Доступные модели
Внося
num_hidden_layers , реализуя картины слоя. intermediate_size , hidden_act ), используя проекторы. num_attention_heads и num_key_value_heads .