Language Model Pretraining for Text Generation
1.0.0
LM预处理生成,阅读清单,资源,会议映射。

深层上下文化的单词表示(Elmo)。 Naacl 18
BERT:深层双向变压器的培训,以了解语言理解,NAACL 19
巴特:自然语言生成,翻译和理解的序列前训练的序列前训练。
语言模型是无监督的多任务学习者(GPT2)
通过生成预训练(GPT)提高语言理解
使用统一的文本到文本变压器(T5)探索转移学习的限制
自然语言理解和产生的统一语言模型(UNILM),神经19
文本摘要用验证的编码器。 ACL 19
序列学习的序列无监督的预处理,EMNLP 17
质量:对语言产生的序列预训练的掩蔽顺序,ICML 19
语言产生的预训练的语言模型表示,NAACL 19
通过跨视图训练进行半监督序列建模。 (CVT)EMNLP 18
具有预训练的语言模型的几个射击NLG
跨语性语言模型预处理,Arxiv 19
伯特有一个嘴,必须说:伯特作为马尔可夫随机野外语言模型,arxiv 19
带有条件蒙版语言模型(链接)的恒定时间机器翻译