Language Model Pretraining for Text Generation
1.0.0
LM預處理生成,閱讀清單,資源,會議映射。

深層上下文化的單詞表示(Elmo)。 Naacl 18
BERT:深層雙向變壓器的培訓,以了解語言理解,NAACL 19
巴特:自然語言生成,翻譯和理解的序列前訓練的序列前訓練。
語言模型是無監督的多任務學習者(GPT2)
通過生成預訓練(GPT)提高語言理解
使用統一的文本到文本變壓器(T5)探索轉移學習的限制
自然語言理解和產生的統一語言模型(UNILM),神經19
文本摘要用驗證的編碼器。 ACL 19
序列學習的序列無監督的預處理,EMNLP 17
質量:對語言產生的序列預訓練的掩蔽順序,ICML 19
語言產生的預訓練的語言模型表示,NAACL 19
通過跨視圖訓練進行半監督序列建模。 (CVT)EMNLP 18
具有預訓練的語言模型的幾個射擊NLG
跨語性語言模型預處理,Arxiv 19
伯特有一個嘴,必須說:伯特作為馬爾可夫隨機野外語言模型,arxiv 19
帶有條件蒙版語言模型(鏈接)的恆定時間機器翻譯