distily
1.0.0
pip install -U "git+https://github.com/lapp0/distily.git"
Distly vous permet de distiller un modèle avec
Exemple minimal: distily_gpt2
Commande pour créer un gpt2 distillé avec seulement 6 couches:
python3 -m distily.run
--teacher_model_name_or_path gpt2
--output_dir distily_gpt2
--hub_model_id "distily/distily_gpt2"
--push_to_hub True
--student_model_config {"n_layers": 6}
--student_model_as_bitnet True
Le modèle distily_gpt2 résultant a (TODO: expliquer les métriques).
Pour plus d'exemples, passez en revue la documentation des exemples.
Pour pousser à Hub, vous devez préparer votre jeton Hub
HF_WRITE=<your hub token> python3 -c "from huggingface_hub.hf_api import HfFolder; HfFolder.save_token('${HF_WRITE}')"
TODO: commettre les documents liés une fois terminés
Utilisation de Distly
Modèles disponibles
Contributif
num_hidden_layers en implémentant des mappeurs de couche. intermediate_size , hidden_act ) en utilisant des projecteurs. num_attention_heads modifié et num_key_value_heads .