
Основная цель OpenSEQ2SEQ-позволить исследователям наиболее эффективно изучать различные модели последовательности к последовательности. Эффективность достигается путем полной поддержки распределенного и смешанного обучения. OpenSeq2seq строится с использованием TensorFlow и предоставляет все необходимые строительные блоки для обучения моделей энкодера-декодера для перевода нейронной машины, автоматического распознавания речи, синтеза речи и языкового моделирования.
https://nvidia.github.io/openseq2seq/
Рабочий процесс речи к тексту использует некоторые части проекта Mozilla Deepspeech.
Декодер для поиска луча с реализацией «Реализация» (в decoders ) основан на темно-скоростной реализации (в декодерах).
Рабочий процесс текста в тексте использует некоторые функции из учебника Tensor2tensor и Translation Translation (SEQ2SEQ).
Это исследовательский проект, а не официальный продукт NVIDIA.
Если вы используете OpenSeq2seq, пожалуйста, цитируйте эту статью
@misc{openseq2seq,
title={Mixed-Precision Training for NLP and Speech Recognition with OpenSeq2Seq},
author={Oleksii Kuchaiev and Boris Ginsburg and Igor Gitman and Vitaly Lavrukhin and Jason Li and Huyen Nguyen and Carl Case and Paulius Micikevicius},
year={2018},
eprint={1805.10387},
archivePrefix={arXiv},
primaryClass={cs.CL}
}