OpenSeq2Seq
1.0.0

OpenSeq2Seq的主要目標是使研究人員能夠最有效地探索各種順序到序列模型。效率是通過完全支持分佈式和混合精確培訓來實現的。 OpenSeq2Seq是使用TensorFlow構建的,並為培訓編碼器模型提供了所有必要的構建塊,用於神經機器翻譯,自動語音識別,語音綜合和語言建模。
https://nvidia.github.io/openseq2seq/
語音到文本工作流程使用Mozilla Deepspeech項目的某些部分。
使用語言模型重新得分實現(以decoders )為基礎的Beam搜索解碼器基於Baidu DeepSpeech。
文本到文本工作流使用Tensor2Tensor和Neural Machine Translation(SEQ2SEQ)教程中的一些功能。
這是一個研究項目,而不是官方的NVIDIA產品。
如果您使用OpenSeq2Seq,請引用本文
@misc{openseq2seq,
title={Mixed-Precision Training for NLP and Speech Recognition with OpenSeq2Seq},
author={Oleksii Kuchaiev and Boris Ginsburg and Igor Gitman and Vitaly Lavrukhin and Jason Li and Huyen Nguyen and Carl Case and Paulius Micikevicius},
year={2018},
eprint={1805.10387},
archivePrefix={arXiv},
primaryClass={cs.CL}
}