LM Pre-Triping pour la génération, la liste de lecture, les ressources, les mappages de conférences.

Représentations de mots contextualisés profonds (ELMO). NAACL 18
Bert: pré-formation des transformateurs bidirectionnels profonds pour la compréhension du langage, NAACL 19
BART: Pré-formation de séquence à séquence à la séquence pour la génération, la traduction et la compréhension du langage naturel.
Les modèles de langue sont des apprenants multitâches non surveillés (GPT2)
Améliorer la compréhension des langues par la pré-formation générative (GPT)
Exploration des limites de l'apprentissage du transfert avec un transformateur de texte à texte unifié (T5)
Pré-formation du modèle de langue unifiée pour la compréhension et la génération du langage naturel (UNILM), les Neirips 19
Résumé du texte avec des encodeurs pré-étendus. ACL 19
Pré-trépassage non supervisé pour l'apprentissage des séquences à la séquence, EMNLP 17
Messe: séquence masquée à la séquence pré-formation pour la génération de langue, ICML 19
Représentations du modèle de langue pré-formé pour la génération de la langue, NAACL 19
Modélisation de séquences semi-supervisées avec formation à vue croisée. (CVT) EMNLP 18
NLG à quelques coups avec modèle de langue pré-formée
Modèle de langage inter-greffe Pre-Trafaining, Arxiv 19
Bert a une bouche, et il doit parler: Bert en tant que modèle de langue aléatoire de Markov, Arxiv 19
Traduction machine à temps constant avec des modèles de langage masqué conditionnel (lien)