OpenSeq2Seq
1.0.0

OpenSeq2Seq 주요 목표는 연구원들이 다양한 시퀀스-시퀀스 모델을 가장 효과적으로 탐색 할 수 있도록하는 것입니다. 효율성은 분산 및 혼합 정제 교육을 완전히 지원함으로써 달성됩니다. OpenSeq2Seq는 TensorFlow를 사용하여 구축되었으며 신경 기계 번역, 자동 음성 인식, 음성 합성 및 언어 모델링을위한 훈련 인코더 디코더 모델에 필요한 모든 빌딩 블록을 제공합니다.
https://nvidia.github.io/openseq2seq/
Speech-to-Text Workflow는 Mozilla DeepSpeech 프로젝트의 일부를 사용합니다.
언어 모델을 사용한 빔 검색 디코더 ( decoders )는 Baidu DeepSpeech를 기반으로합니다.
텍스트-텍스트 워크 플로는 Tensor2tensor 및 Neural Machine Translation (SEQ2SEQ) 튜토리얼의 일부 기능을 사용합니다.
이것은 공식적인 NVIDIA 제품이 아닌 연구 프로젝트입니다.
OpenSeq2Seq를 사용하는 경우이 논문을 인용하십시오
@misc{openseq2seq,
title={Mixed-Precision Training for NLP and Speech Recognition with OpenSeq2Seq},
author={Oleksii Kuchaiev and Boris Ginsburg and Igor Gitman and Vitaly Lavrukhin and Jason Li and Huyen Nguyen and Carl Case and Paulius Micikevicius},
year={2018},
eprint={1805.10387},
archivePrefix={arXiv},
primaryClass={cs.CL}
}