
L'objectif principal d'OpenSEQ2SEQ est de permettre aux chercheurs d'explorer le plus efficacement divers modèles de séquence à séquence. L'efficacité est obtenue en soutenant pleinement la formation distribuée et mixte. OpenSEQ2SEQ est construit à l'aide de TensorFlow et fournit tous les éléments constitutifs nécessaires pour la formation de modèles d'encodeur-décodeur pour la traduction de la machine neuronale, la reconnaissance de la parole automatique, la synthèse de la parole et la modélisation du langage.
https://nvidia.github.io/openseq2seq/
Le flux de travail de la parole à texte utilise certaines parties du projet DeepSpeech de Mozilla.
Le décodeur de recherche de faisceau avec la mise en œuvre de re-score du modèle de langage (dans decoders ) est basé sur Baidu DeepSpeech.
Le flux de travail text-to-texte utilise certaines fonctions du didacticiel Tensor2tensor et neuronal de traduction automatique (SEQ2SEQ).
Il s'agit d'un projet de recherche, pas d'un produit NVIDIA officiel.
Si vous utilisez OpenSEQ2SEQ, veuillez citer ce document
@misc{openseq2seq,
title={Mixed-Precision Training for NLP and Speech Recognition with OpenSeq2Seq},
author={Oleksii Kuchaiev and Boris Ginsburg and Igor Gitman and Vitaly Lavrukhin and Jason Li and Huyen Nguyen and Carl Case and Paulius Micikevicius},
year={2018},
eprint={1805.10387},
archivePrefix={arXiv},
primaryClass={cs.CL}
}