
Das Hauptziel von OpenSeq2seq ist es, Forschern zu ermöglichen, verschiedene Sequenz-zu-Sequenz-Modelle am effektivsten zu untersuchen. Die Effizienz wird durch die vollständige Unterstützung verteilter und gemischter Schulungen erreicht. OpenSeq2Seq wurde unter Verwendung von TensorFlow erstellt und bietet alle erforderlichen Bausteine für Schulungscodiererdekodermodelle für die Übersetzung der neuronalen maschinellen Übersetzung, die automatische Spracherkennung, die Sprachsynthese und die Sprachmodellierung.
https://nvidia.github.io/openseq2seq/
Sprach-Text-Workflow verwendet einige Teile des Mozilla DeepSpeech-Projekts.
Der Beam-Search-Decoder mit Recoring Implementierung des Sprachmodells (in decoders ) basiert auf Baidu DeepSpeech.
Der Text-to-Text-Workflow verwendet einige Funktionen aus Tensor2tensor- und Neural Machine Translation (SEQ2SQ) Tutorial.
Dies ist ein Forschungsprojekt, kein offizielles NVIDIA -Produkt.
Wenn Sie OpenSeq2Seq verwenden, zitieren Sie dieses Papier bitte
@misc{openseq2seq,
title={Mixed-Precision Training for NLP and Speech Recognition with OpenSeq2Seq},
author={Oleksii Kuchaiev and Boris Ginsburg and Igor Gitman and Vitaly Lavrukhin and Jason Li and Huyen Nguyen and Carl Case and Paulius Micikevicius},
year={2018},
eprint={1805.10387},
archivePrefix={arXiv},
primaryClass={cs.CL}
}