
O objetivo principal do OpenSeq2SEQ é permitir que os pesquisadores explorem com mais eficácia vários modelos de sequência a sequência. A eficiência é alcançada pelo treinamento totalmente distribuído e de precisão mista. O OpenSeq2SEQ é construído usando o TensorFlow e fornece todos os blocos de construção necessários para modelos de codificador de treinamento para tradução de máquinas neurais, reconhecimento automático de fala, síntese de fala e modelagem de idiomas.
https://nvidia.github.io/openseq2seq/
O fluxo de trabalho de fala para texto usa algumas partes do projeto Mozilla DeepSpeech.
O decodificador de pesquisa de feixes com o modelo de linguagem que re-pontua a implementação (em decoders ) é baseado no Baidu DeepSpeech.
O fluxo de trabalho de texto para texto usa algumas funções do tutorial Tensor2tensor e da Máquina Neural (SEQ2SEQ).
Este é um projeto de pesquisa, não um produto oficial da NVIDIA.
Se você usar o OpenSeq2Seq, cite este artigo
@misc{openseq2seq,
title={Mixed-Precision Training for NLP and Speech Recognition with OpenSeq2Seq},
author={Oleksii Kuchaiev and Boris Ginsburg and Igor Gitman and Vitaly Lavrukhin and Jason Li and Huyen Nguyen and Carl Case and Paulius Micikevicius},
year={2018},
eprint={1805.10387},
archivePrefix={arXiv},
primaryClass={cs.CL}
}