
الهدف الرئيسي من OpenseQ2Seq هو السماح للباحثين باستكشاف نماذج التسلسل إلى التسلسل بشكل أكثر فعالية. يتم تحقيق الكفاءة من خلال دعم تدريب موزع ومختلط بشكل كامل. تم تصميم OpenseQ2Seq باستخدام TensorFlow ويوفر جميع لبنات البناء اللازمة لتدريب نماذج ترميز التشفير للترجمة الآلية العصبية ، والتعرف على الكلام التلقائي ، وتوليف الكلام ، ونمذجة اللغة.
https://nvidia.github.io/openseq2seq/
يستخدم سير العمل الكلام إلى النص بعض أجزاء من مشروع Mozilla Deepspeech.
يعتمد Decoder Search Search مع تنفيذ إعادة تسجيل نموذج اللغة (في decoders ) على Baidu Deepspeech.
يستخدم سير العمل من نص إلى نص بعض الوظائف من برنامج Tensor2Tensor و Transal Machine Translation (SEQ2Seq).
هذا مشروع بحثي ، وليس منتج Nvidia الرسمي.
إذا كنت تستخدم OpenseQ2Seq ، فيرجى الاستشهاد بهذه الورقة
@misc{openseq2seq,
title={Mixed-Precision Training for NLP and Speech Recognition with OpenSeq2Seq},
author={Oleksii Kuchaiev and Boris Ginsburg and Igor Gitman and Vitaly Lavrukhin and Jason Li and Huyen Nguyen and Carl Case and Paulius Micikevicius},
year={2018},
eprint={1805.10387},
archivePrefix={arXiv},
primaryClass={cs.CL}
}