Language Model Pretraining for Text Generation
1.0.0
LM 세대, 독서 목록, 리소스, 컨퍼런스 매핑을위한 LM 사전 여지.

깊은 맥락화 된 단어 표현 (ELMO). NAACL 18
버트 : 언어 이해를위한 심층 양방향 변압기의 사전 훈련, NAACL 19
BART : 자연 언어 생성, 번역 및 이해에 대한 시퀀스-시퀀스 사전 훈련.
언어 모델은 감독되지 않은 멀티 태스킹 학습자 (GPT2)입니다.
생성 사전 훈련 (GPT)에 의한 언어 이해 향상
통합 텍스트-텍스트 변압기 (T5)로 전송 학습의 한계 탐색
자연어 이해 및 세대를위한 통합 언어 모델 사전 훈련 (UNILM), Neurips 19
사전 치료 된 인코더를 사용한 텍스트 요약. ACL 19
서열 학습에 대한 서열에 대한 감독되지 않은 사전 조정, EMNLP 17
질량 : 언어 생성에 대한 시퀀스 사전 훈련에 마스크 시퀀스, ICML 19
언어 생성에 대한 미리 훈련 된 언어 모델 표현, NAACL 19
크로스 뷰 교육을 통한 반 감독 시퀀스 모델링. (CVT) EMNLP 18
미리 훈련 된 언어 모델을 가진 몇 가지 샷 NLG
언어 간 언어 모델 사전 조정, Arxiv 19
Bert는 입을 가지고 있으며 말해야합니다 : Bert는 Markov Random Field Language Model, Arxiv 19입니다.
조건부 마스크 언어 모델을 사용한 지속 시간 기계 번역 (링크)