
El objetivo principal de OpenSeq2SEQ es permitir que los investigadores exploren de manera más efectiva varios modelos de secuencia a secuencia. La eficiencia se logra mediante el entrenamiento distribuido y de precisión mixta. OpenSeq2SEQ se construye utilizando TensorFlow y proporciona todos los bloques de construcción necesarios para capacitar modelos de codificadores de codificadores para la traducción de la máquina neuronal, reconocimiento automático de voz, síntesis de voz y modelado de idiomas.
https://nvidia.github.io/openseq2seq/
El flujo de trabajo de voz a texto utiliza algunas partes del proyecto Mozilla DeepSpeech.
El decodificador de búsqueda de haz con la implementación de la redacción del modelo de idioma (en decoders ) se basa en Baidu DeepSpeech.
El flujo de trabajo de texto a texto utiliza algunas funciones de tensor2tensor y tutorial de traducción automática neural (SEQ2SEQ).
Este es un proyecto de investigación, no un producto oficial de NVIDIA.
Si usa OpenSeq2SEQ, cite este documento
@misc{openseq2seq,
title={Mixed-Precision Training for NLP and Speech Recognition with OpenSeq2Seq},
author={Oleksii Kuchaiev and Boris Ginsburg and Igor Gitman and Vitaly Lavrukhin and Jason Li and Huyen Nguyen and Carl Case and Paulius Micikevicius},
year={2018},
eprint={1805.10387},
archivePrefix={arXiv},
primaryClass={cs.CL}
}