
เป้าหมายหลักของ OpenseQ2Seq คือการอนุญาตให้นักวิจัยสำรวจโมเดลลำดับต่อลำดับที่หลากหลายมากที่สุด ประสิทธิภาพทำได้โดยการสนับสนุนการฝึกอบรมแบบกระจายและความแม่นยำแบบผสมอย่างเต็มที่ OpenseQ2Seq ถูกสร้างขึ้นโดยใช้ TensorFlow และจัดทำหน่วยการสร้างที่จำเป็นทั้งหมดสำหรับการฝึกอบรมโมเดล Decoder Decoder สำหรับการแปลเครื่องประสาทการรู้จำเสียงพูดอัตโนมัติการสังเคราะห์เสียงพูดและการสร้างแบบจำลองภาษา
https://nvidia.github.io/openseq2seq/
เวิร์กโฟลว์คำพูดเป็นข้อความใช้บางส่วนของโครงการ Mozilla Deepspeech
ตัวถอดรหัสการค้นหาลำแสงที่มีรูปแบบการใช้งานการให้คะแนนการใช้งานซ้ำ (ใน decoders ) ขึ้นอยู่กับ Baidu DeepSpeech
เวิร์กโฟลว์ข้อความเป็นข้อความใช้ฟังก์ชั่นบางอย่างจากบทช่วยสอน Tensor2Tensor และ Neural Machine (SEQ2SEQ)
นี่คือโครงการวิจัยไม่ใช่ผลิตภัณฑ์ Nvidia อย่างเป็นทางการ
หากคุณใช้ OpenSeQ2Seq โปรดอ้างอิงบทความนี้
@misc{openseq2seq,
title={Mixed-Precision Training for NLP and Speech Recognition with OpenSeq2Seq},
author={Oleksii Kuchaiev and Boris Ginsburg and Igor Gitman and Vitaly Lavrukhin and Jason Li and Huyen Nguyen and Carl Case and Paulius Micikevicius},
year={2018},
eprint={1805.10387},
archivePrefix={arXiv},
primaryClass={cs.CL}
}