Code source pour le papier: Méthodes de quantification efficaces pour les réseaux de neurones récurrents.
L'implémentation du modèle de langue PTB est modifiée à partir d'exemples dans TensorFlow.
Actuellement testé et exécuté sur TensorFlow 1.8 et Python 3.6. Affichez d'autres branches pour le support hérité. Vous pouvez télécharger les données à partir de http://www.fit.vutbr.cz/~imikolov/rnnlm/simple-examples.tgz.
python train.py --config=config.gru --data_path=YOUR_DATA_PATH
Actuellement, la valeur par défaut est des poids et des activations 2 bits. Vous pouvez modifier le fichier config dans le dossier Config pour modifier la configuration.
Soumettre le problème pour le problème concerne le code lui-même. Envoyez un e-mail à l'auteur pour une question générale sur le document.
Veuillez citer Suivre si vous utilisez notre code dans votre recherche:
@article{DBLP:journals/corr/HeWZWYZZ16,
author = {Qinyao He and
He Wen and
Shuchang Zhou and
Yuxin Wu and
Cong Yao and
Xinyu Zhou and
Yuheng Zou},
title = {Effective Quantization Methods for Recurrent Neural Networks},
journal = {CoRR},
volume = {abs/1611.10176},
year = {2016},
url = {http://arxiv.org/abs/1611.10176},
timestamp = {Thu, 01 Dec 2016 19:32:08 +0100},
biburl = {http://dblp.uni-trier.de/rec/bib/journals/corr/HeWZWYZZ16},
bibsource = {dblp computer science bibliography, http://dblp.org}
}