Предварительная подготовка LM для поколения, список чтения, ресурсы, сопоставления конференций.

Глубокие контекстуализированные представления слов (ELMO). NAACL 18
Берт: предварительное обучение глубоких двунаправленных трансформаторов для понимания языка, NAACL 19
BART: дженочная последовательность к последовательности предварительной тренировки для генерации, перевода и понимания естественного языка.
Языковые модели - это неконтролируемые многозадачные ученики (GPT2)
Улучшение понимания языка путем генеративного предварительного обучения (GPT)
Изучение пределов обучения передачи с помощью унифицированного трансформатора текста в текст (T5)
Unified Language Model перед тренировкой для понимания естественного языка и поколения (Unilm), Neurips 19
Текстовое обобщение с предварительно проведенными кодерами. ACL 19
Неконтролируемое предварительное подготовку для последовательности к изучению последовательности, EMNLP 17
Масса: маскированная последовательность для предварительной тренировки последовательности для генерации языка, ICML 19
Предварительно обученные языковые модели представления для генерации языка, NAACL 19
Полупроницаемое моделирование последовательности с обучением по перекрестному просмотру. (CVT) EMNLP 18
Несколько выстрелов NLG с предварительно обученной языковой моделью
Крестовая языковая модель предварительная подготовка, arxiv 19
У Берта есть рот, и он должен говорить: Берт как модель случайного полевого языка Маркова, Arxiv 19
Постоянный перевод машины с условными моделями языка в масках (ссылка)