distily
1.0.0
pip install -U "git+https://github.com/lapp0/distily.git"
Ermöglicht es Ihnen, ein Modell mit destillieren zu destillieren
Minimales Beispiel: distily_gpt2
Befehl zum Erstellen eines destillierten gpt2 mit nur 6 Ebenen:
python3 -m distily.run
--teacher_model_name_or_path gpt2
--output_dir distily_gpt2
--hub_model_id "distily/distily_gpt2"
--push_to_hub True
--student_model_config {"n_layers": 6}
--student_model_as_bitnet True
Das resultierende distily_gpt2 -Modell hat (Todo: Erklären von Metriken).
Weitere Beispiele finden Sie unter Beispiele.
Um nach Hub zu drücken, müssen Sie Ihr Hub -Token vorbereiten
HF_WRITE=<your hub token> python3 -c "from huggingface_hub.hf_api import HfFolder; HfFolder.save_token('${HF_WRITE}')"
TODO: Verlassen Sie die verknüpften Dokumente, sobald sie abgeschlossen sind
Verwenden Sie distilität
Verfügbare Modelle
Beitragen
num_hidden_layers durch Implementierung von Layer Mappers. intermediate_size , hidden_act ) durch Einstellung von Projektoren. num_attention_heads und num_key_value_heads .