Language Model Pretraining for Text Generation
1.0.0
生成、読書リスト、リソース、会議マッピングのためのLM事前化。

深い文脈化された単語表現(ELMO)。 NAACL 18
バート:言語理解のための深い双方向トランスの事前訓練、NAACL 19
BART:自然言語の生成、翻訳、および理解のためのシーケンスからシーケンス前訓練を除去。
言語モデルは教師なしマルチタスク学習者(GPT2)です
生成前のトレーニング(GPT)による言語理解の向上
統一されたテキストツーテキストトランス(T5)を使用した転送学習の限界を調査する
自然言語の理解と生成のための事前トレーニング(Unilm)、Neurips 19
前処理されたエンコーダーを使用したテキストの要約。 ACL 19
シーケンスのシーケンス学習、EMNLP 17の監視されていない事前に除外されていません
質量:言語生成の前トレーニング前のシーケンスへのマスクされたシーケンス、ICML 19
言語生成の事前に訓練された言語モデル表現、NAACL 19
クロスビュートレーニングを使用した半監視シーケンスモデリング。 (CVT)EMNLP 18
事前に訓練された言語モデルを備えた少数のNLG
横断言語モデル前脱直、arxiv 19
バートには口があり、それは話さなければなりません:マルコフランダムフィールド言語モデルとしてのバート、arxiv19
条件付きマスク言語モデルを使用した一定の時間機械翻訳(リンク)