Klonen Sie das Repo
git clone https://github.com/peterliht/knowledge-distillation-pytorch.git
Installieren Sie die Abhängigkeiten (einschließlich Pytorch)
pip install -r requirements.txt
Hinweis: Alle Hyperparameter können in 'params.json' unter 'model_dir' gefunden und geändert werden
-Trainieren Sie einen 5-Schicht-CNN mit Wissen, das aus einem vorgebildeten Resnet-18-Modell destilliert ist
python train.py --model_dir experiments/cnn_distill
-Trainieren Sie ein Resnet-18-Modell mit Wissen, das von einem vorgeborenen ResNext-29-Lehrer destilliert wurde
python train.py --model_dir experiments/resnet18_distill/resnext_teacher
- Hyperparameter-Suche nach einem bestimmten Experiment ('parent_dir/params.json')
python search_hyperparams.py --parent_dir experiments/cnn_distill_alpha_temp
-Synthese-Ergebnisse der jüngsten Hypersearch-Experimente
python synthesize_results.py --parent_dir experiments/cnn_distill_alpha_temp
Schnelle Imbissbuden (weitere Details hinzuzufügen):
-Wissensdestillation von Resnet-18 bis 5-Layer CNN
| Modell | Tropfen = 0,5 | Kein Ausfall |
|---|---|---|
| 5-layer CNN | 83,51% | 84,74% |
| 5-layer CNN W/ Resnet18 | 84,49% | 85,69% |
- Wissensdestillation von tieferen Modellen bis resnet-18
| Modell | Testgenauigkeit |
|---|---|
| Baseline Resnet-18 | 94,175% |
| + KD Bideresnet-28-10 | 94,333% |
| + KD Preresnet-110 | 94,531% |
| + KD Densenet-100 | 94,729% |
| + KD Resnext-29-8 | 94,788% |
H. Li, "Erforschung der Wissensdestillation von tiefen neuronalen Netzen für effiziente Hardware -Lösungen", CS230 Report, 2018
Hinton, Geoffrey, Oriol Vinyals und Jeff Dean. "Destillieren des Wissens in einem neuronalen Netzwerk." Arxiv Preprint Arxiv: 1503.02531 (2015).
Romero, A., Ballas, N., Kahou, SE, A. Chassang, C. Gatta & Y. Bengio (2014). Fitnets: Hinweise für dünne tiefe Netze. Arxiv Preprint Arxiv: 1412.6550.
https://github.com/cs230-stanford/cs230-stanford.github.io
https://github.com/bearpaw/pytorch-classification