Pretratrenamiento LM para generación, lista de lectura, recursos, mapeos de conferencias.

Representaciones de palabras contextualizadas profundas (ELMO). NAACL 18
Bert: pretruento de transformadores bidireccionales profundos para la comprensión del lenguaje, NAACL 19
BART: Pretración previa a la secuencia de secuencia de desaceleración para la generación de lenguaje natural, traducción y comprensión.
Los modelos de idiomas son alumnos multitarea no supervisados (GPT2)
Mejora de la comprensión del lenguaje mediante un pretraben generativo (GPT)
Explorando los límites del aprendizaje de transferencia con un transformador de texto a texto unificado (T5)
Modelo de lenguaje unificado Precrendimiento para la comprensión y generación del lenguaje natural (UNILM), Neurips 19
Resumen del texto con codificadores previos al estado de la aparición. ACL 19
Pretratenamiento sin supervisión para secuencia a aprendizaje de secuencia, EMNLP 17
Mass: secuencia enmascarada a la secuencia previa al entrenamiento para la generación de idiomas, ICML 19
Representaciones de modelos de idiomas previamente capacitados para la generación de idiomas, NAACL 19
Modelado de secuencia semi-supervisada con entrenamiento de visión transversal. (CVT) EMNLP 18
NLG de pocos disparos con modelo de lenguaje previamente capacitado
Modelo de lenguaje interlingüal previa al pre-ling-lingny, ARXIV 19
Bert tiene una boca, y debe hablar: Bert como modelo de lenguaje de campo aleatorio de Markov, ARXIV 19
Traducción automática de tiempo constante con modelos de lenguaje enmascarado condicional (enlace)