LM pré -treinamento para geração, lista de leitura, recursos, mapeamentos de conferências.

Representações de palavras contextualizadas profundas (ELMO). Naacl 18
Bert: pré-treinamento de transformadores bidirecionais profundos para o entendimento da linguagem, Naacl 19
BART: O pré-treinamento de sequência a sequência de denoising para geração de linguagem natural, tradução e compreensão.
Modelos de idiomas são aprendizes multitarefa não supervisionados (GPT2)
Melhorando a compreensão da linguagem por pré-treinamento generativo (GPT)
Explorando os limites do aprendizado de transferência com um transformador de texto em texto unificado (T5)
Modelo de linguagem unificada Pré-treinamento para compreensão e geração de linguagem natural (Unilm), Neurips 19
Resumo do texto com codificadores pré -treinados. ACL 19
Pré -treinamento não supervisionado para a sequência de seqüência de aprendizado, emnlp 17
Missa: Sequência mascarada para sequenciar pré-treinamento para geração de idiomas, ICML 19
Representações de modelo de idioma pré-treinado para geração de idiomas, NAACL 19
Modelagem de sequência semi-supervisionada com treinamento de visão cruzada. (CVT) EMNLP 18
Feia NLG com modelo de idioma pré-treinado
Modelo de idioma transversal pré-treinamento, arxiv 19
Bert tem uma boca, e deve falar: Bert como um modelo de linguagem de campo aleatório de Markov, arxiv 19
Tradução de máquina em tempo constante com modelos de linguagem mascarada condicional (link)