OpenSeq2Seq
1.0.0

OpenseQ2Seqの主な目標は、研究者がさまざまなシーケンスからシーケンスモデルを最も効果的に探索できるようにすることです。効率は、分散型および混合環境トレーニングを完全にサポートすることによって達成されます。 Openseq2SeqはTensorflowを使用して構築され、神経機械翻訳、自動音声認識、音声合成、言語モデリングのためのトレーニングエンコーダーデコーダーモデルに必要なすべてのビルディングブロックを提供します。
https://nvidia.github.io/openseq2seq/
音声からテキストへのワークフローでは、Mozilla Deepspeechプロジェクトの一部を使用しています。
言語モデルを備えたビーム検索デコーダー( decoders内)の実装を再スコアリングすることは、Baidu Deepspeechに基づいています。
テキストからテキストへのワークフローでは、Tensor2TensorおよびNeural Machine Translation(SEQ2SEQ)チュートリアルからいくつかの機能を使用します。
これは、公式のNvidia製品ではなく、研究プロジェクトです。
Openseq2Seqを使用する場合は、この論文を引用してください
@misc{openseq2seq,
title={Mixed-Precision Training for NLP and Speech Recognition with OpenSeq2Seq},
author={Oleksii Kuchaiev and Boris Ginsburg and Igor Gitman and Vitaly Lavrukhin and Jason Li and Huyen Nguyen and Carl Case and Paulius Micikevicius},
year={2018},
eprint={1805.10387},
archivePrefix={arXiv},
primaryClass={cs.CL}
}