distily
1.0.0
pip install -U "git+https://github.com/lapp0/distily.git"
モデルを蒸留することができます
最小限の例: distily_gpt2
わずか6層の蒸留gpt2を作成するコマンド:
python3 -m distily.run
--teacher_model_name_or_path gpt2
--output_dir distily_gpt2
--hub_model_id "distily/distily_gpt2"
--push_to_hub True
--student_model_config {"n_layers": 6}
--student_model_as_bitnet True
結果として生じるdistily_gpt2モデルには(todo:メトリックの説明)。
その他の例については、例のドキュメントを確認してください。
ハブにプッシュするには、ハブトークンを準備する必要があります
HF_WRITE=<your hub token> python3 -c "from huggingface_hub.hf_api import HfFolder; HfFolder.save_token('${HF_WRITE}')"
TODO:完了したら、リンクされたドキュメントをコミットします
距離を使用します
利用可能なモデル
貢献
num_hidden_layersが少ないモデルに蒸留します。 intermediate_size 、 hidden_actなど)を変更したモデルに蒸留します。 num_attention_headsおよびnum_key_value_headsを使用してモデルに蒸留します。