
Tujuan utama OPENSEQ2SEQ adalah untuk memungkinkan para peneliti untuk paling efektif mengeksplorasi berbagai model urutan-ke-urutan. Efisiensi dicapai dengan pelatihan yang didistribusikan dan presisi campuran sepenuhnya mendukung. OpenseQ2seq dibangun menggunakan TensorFlow dan menyediakan semua blok bangunan yang diperlukan untuk pelatihan model encoder-decoder untuk terjemahan mesin saraf, pengenalan ucapan otomatis, sintesis ucapan, dan pemodelan bahasa.
https://nvidia.github.io/openseq2seq/
Alur kerja pidato-ke-teks menggunakan beberapa bagian proyek Mozilla Deepspeech.
Decoder pencarian balok dengan Model Bahasa Implementasi Penilaian ulang (dalam decoders ) didasarkan pada Baidu Deepspeech.
Alur kerja teks-ke-teks menggunakan beberapa fungsi dari tutorial Tensor2Tensor dan Neural Machine Translation (SEQ2SEQ).
Ini adalah proyek penelitian, bukan produk NVIDIA resmi.
Jika Anda menggunakan openseq2seq, silakan kutip makalah ini
@misc{openseq2seq,
title={Mixed-Precision Training for NLP and Speech Recognition with OpenSeq2Seq},
author={Oleksii Kuchaiev and Boris Ginsburg and Igor Gitman and Vitaly Lavrukhin and Jason Li and Huyen Nguyen and Carl Case and Paulius Micikevicius},
year={2018},
eprint={1805.10387},
archivePrefix={arXiv},
primaryClass={cs.CL}
}