우리는 오픈 소스 프롬프트 학습 툴킷을 출시했습니다. OpenPrompt를 확인하십시오!
우리는 환상적인 작품을 지역 사회에 홍보 하고자하는 연구원들을 강력히 권장합니다. (기여 세부 사항 참조)
미리 훈련 된 모델의 효과적인 적응은 다른 관점에서 조사 될 수 있습니다. 프롬프트 학습은 교육 절차 조직과 다른 작업의 통일에 더 중점을 두는 반면, 델타 튜닝 (매개 변수 효율적인 방법)은 사전 훈련 된 모델의 특정 최적화로부터 다른 방향을 제공합니다. 델타 포퍼를 확인하십시오!
미리 훈련 된 언어 모델에 대한 프롬프트 기반 튜닝에 대한 필수 논문. 종이 목록은 주로 Ning Ding과 Shengding hu에 의해 화를냅니다. 최신 업데이트를 보려면이 저장소를 시청하십시오!
이것은 대규모 사전 훈련 된 언어 모델에 대한 프롬프트 기반 튜닝 에 관한 종이 목록입니다. 명백한 분류기를 사용하는 기존의 미세 조정과는 다른 프롬프트 기반 튜닝은 사전 훈련 된 모델을 직접 사용하여 분류 또는 회귀를 위해 사전 훈련 작업을 수행합니다.
작업의 약어.
작업에 사용 된 신속한 학습 측면에서 주요 기능.
주로 작업의 작업을 탐구했습니다.
주로 작업에서 신속한 학습 방법의 속성을 탐구했습니다.
이 섹션에는 최근 자연 언어 처리의 일반적인 트렌드를 크게 (사전에 사전) 모델로 보는 논문이 포함되어 있습니다.
OpenPrompt : 프롬프트 학습을위한 오픈 소스 프레임 워크. 프리 인쇄.
Ning Ding, Shengding Hu, Weilin Zhao, Yulin Chen, Zhiyuan Liu, Hai-Tao Zheng, Maoson Sun [PDF] [Project], 2021.11
미리 훈련 된 모델 : 과거, 현재 및 미래. 프리 인쇄.
Xu Han, Zhengyan Zhang, Ning Ding, Yuxian Gu, Xiao Liu, Yuqi Huo, Jiezhong Qiu, Yuan Yao, Ao Zhang, Liang Zhang, Wentao Han, Minlie Huang, Qin Jin, Yanyan Lan, Yang Liu, Zhiyuan Liu, Zhiuan , xipeng Qiu, Ruihua Song, Jie Tang, Ji-Rong Wen, Jinhui Yuan, Wayne Xin Zhao, Jun Zhu. [PDF], 2021.6
사전 훈련, 프롬프트 및 예측 : 자연어 처리에서 방법에 대한 체계적인 조사. 프리 인쇄.
Liu, Pengfei, Weizhe Yuan, Jinlan Fu, Zhengbao Jiang, Hiroaki Hayashi 및 Graham Neubig. [PDF] [프로젝트], 2021.7
자연어 처리의 패러다임 전환. 기계 인텔리전스 연구.
Tianxiang Sun, Xiangyang Liu, Xipeng Qiu, Xuanjing Huang [PDF] [Project], 2021.9
이 섹션에는 신속한 학습 패러다임의 유병률에 기여할 수있는 파일럿 작업이 포함되어 있습니다.
NLP에 대한 매개 변수 효율적인 전송 학습. ICML 2019.
Neil Houlsby, Andrei Giurgiu, Stanislaw Jastrzebski, Bruna Morrone, Quentin de Laroussilhe, Andrea Gesmundo, Mona Attariyan, Sylvain Gelly . [PDF], [프로젝트], 2019.6
통합 된 텍스트-텍스트 변압기로 전송 학습의 한계를 탐색합니다. JMLR. Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J. Liu. [PDF], [프로젝트]. 2019.10.
지식 기반으로 언어 모델? EMNLP 2019.
Fabio Petroni, Tim Rocktaschel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, Alexander H. Miller, Sebastian Riedel. [PDF], [프로젝트], 2019.9
언어 모델이 무엇을 알고 있는지 어떻게 알 수 있습니까? TACL 2020.
Zhengbao Jiang, Frank F. Xu, Jun Araki, Graham Neubig . [PDF], [Project], 2019.11
언어 모델은 소수의 학습자입니다. Neurips 2020.
Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Tom Henighan Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Grey, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei. [PDF], [웹 사이트], 2020.5
Adaprompt : 프롬프트 기반 NLP를위한 적응 모델 교육
Yulong Chen, Yang Liu, Li Dong, Shuohang Wang, Chenguang Zhu, Michael Zeng, Yue Zhang [PDF], 2022.02
이 섹션에서는 템플릿, 언어 제, 훈련 패러다임 등과 같은 프롬프트 튜닝의 기본 측면에 대한 탐색이 포함되어 있습니다.
소수의 샷 텍스트 분류 및 자연어 추론에 대한 망토 질문 악용. EACL 2021.
Timo Schick, Hinrich Schütze. [PDF], [프로젝트], 2020.1
작은 언어 모델은 소수의 학습자입니다. NAACL 2021.
Timo Schick, Hinrich Schütze. [PDF], [프로젝트], 2020.9
AutoPrompt : 자동으로 생성 된 프롬프트가있는 언어 모델의 지식을 유도합니다. 프리 인쇄.
Taylor Shin, Yasaman Razeghi, Robert L. Logan IV, Eric Wallace, Sameer Singh. [PDF], [웹 사이트], 2020.10
소수의 샷 텍스트 분류에 대한 레이블 역할을 할 수있는 단어를 자동으로 식별합니다. Coling 2020.
Timo Schick, Helmut Schmid, Hinrich Schütze. [PDF], [프로젝트], 2020.12
미리 훈련 된 언어 모델을 더 나은 소수의 학습자로 만들었습니다. ACL 2021.
Tianyu Gao, Adam Fisch, Danqi Chen. [PDF], [프로젝트], 2020.12
접두사 조정 : 세대를위한 연속 프롬프트 최적화 . ACL 2021.
Xiang Lisa Li, Percy Liang. [PDF], [프로젝트], 2021.1
대형 언어 모델에 대한 프롬프트 프로그래밍 : 소수의 샷 패러다임을 넘어서. 프리 인쇄.
Laria Reynolds, Kyle McDonell. [PDF], 2021.2
패턴 착취 훈련 개선 및 단순화. 프리 인쇄.
Derek Tam, Rakesh R Menon, Mohit Bansal, Shashank Srivastava, Colin Raffel. [PDF], 2021.3
GPT도 이해합니다. 프리 인쇄.
Xiao Liu, Yanan Zheng, Zhengxiao du, Ming Ding, Yujie Qian, Zhilin Yang, Jie Tang . [PDF], [프로젝트], 2021.3
매개 변수에 필수적 인 프롬프트 튜닝을위한 스케일의 전력. 프리 인쇄.
Brian Lester, Rami Al-Rfou, Noah Constant . [PDF], [프로젝트], 2021.4
묻는 방법 학습 : 소프트 프롬프트 혼합물로 LMS 쿼리. NAACL 2021.
Guanghui Qin, Jason Eisner. [PDF] [프로젝트], 2021.4
사실 조사는 [마스크]입니다 : 학습 대 등식 학습. NAACL 2021.
Zexuan Zhong, Dan Friedman, Danqi Chen. [PDF], [프로젝트], 2021.4
프롬프트 및 매개 변수를 줄이기 : 언어 모델을 통한 간단한 소수의 학습. 프리 인쇄.
Robert L. Logan IV, Ivana Balažević, Eric Wallace, Fabio Petroni, Sameer Singh, Sebastian Riedel . [PDF], 2021.6
WARP : 단어 수준의 적대적 재 프로그래밍. ACL 2021.
Karen Hambardzumyan, Hrant Khachatrian, Jonathan May. [PDF], [프로젝트], 2021.6
PTR : 텍스트 분류 규칙으로 신속한 튜닝. 프리 인쇄.
Xu Han, Weilin Zhao, Ning Ding, Zhiyuan Liu, Maosong Sun. [PDF], 2021.5
NSP-Bert : 원래 사전 훈련 작업을 통한 프롬프트 기반 제로 샷 학습자 —— 다음 문장 예측
Yi Sun*, Yu Zheng*, Chao Hao, Hangping Qiu , [PDF], [Project], 2021.9
Finetuned Language 모델은 제로 샷 학습자입니다.
Ason Wei, Maarten Bosma, Vincent Y. Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan du, Andrew M. Dai, Quoc V. Le. [PDF], 2021.9
PPT : 소수의 샷 학습을위한 미리 훈련 된 프롬프트 튜닝
Yuxian Gu*, Xu Han*, Zhiyuan Liu, Minlie Huang. [PDF], 2021.9
차별화 가능한 프롬프트는 미리 훈련 된 언어 모델을 더 나은 소수의 학습자로 만듭니다. ICLR 2022.
Ningyu Zhang, Luoqiu Li, Xiang Chen, Shumin Deng, Zhen BI, Chuanqi Tan, Fei Huang, Huajun Chen. [PDF], [프로젝트], 2021.10
멀티 태스킹 프롬프트 교육은 제로 샷 작업 일반화를 가능하게합니다.
Victor Sanh, Albert Webson, Colin Raffel, Stephen H. Bach, Lintang Sutawika, Zaid Alyafeai, Antoine Chaffin, Arnaud Stiegler, Teven Le Scao, Arun Raja, Manan Dey, M Saiful Bari, Canwen Xu, Umish Thakker, Shanya Sharma, Eliza Szczechla, Taewoon Kim, Gunjan Chhablani, Nihal Nayak, Debajyoti Datta, Jonathan Chang, Mike Tian-Jian Jiang, Han Wang, Matteo Manica, Sheng Shen, Zheng Xin Yong, Harshit Pandey, Rachel Bawden, Thomas Wang, Trishala Neeraj, Jossho Rozen. , Andrea Santilli, Thibault Fevry, Jason Alan Fries, Ryan Teehan, Stella Biderman, Leo Gao, Tali Bers, Thomas Wolf, Alexander M. Rush. [PDF], 2021.10
P-Tuning V2 : 프롬프트 튜닝은 스케일 및 작업에서 보편적으로 미세 조정과 비교할 수 있습니다. ACL 2022.
Xiao Liu, Kaixuan JI, Yicheng Fu, Zhengxiao du, Zhilin Yang, Jie Tang [PDF], [Project], 2021.10
언어 모델을위한 블랙 박스 튜닝. ICML 2022.
Tianxiang Sun, Yunfan Shao, Hong Qian, Xuanjing Huang, Xipeng Qiu [PDF], [Project], 2022.1
미리 훈련 된 언어 모델에 대한 블랙 박스 프롬프트 학습. 프리 인쇄.
Shizhe Diao, Xuechun Li, Yong Lin, Zhichao Huang, Tong Zhang [PDF], 2022.1
기호 언어로 언어 모델을 바인딩합니다. 프리 인쇄.
Zhoujun Cheng*, Tianbao Xie*, Peng Shi, Chengzu Li, Rahul Nadkarni, Yushi Hu, Caiming Xiong, Dragomir Radev, Mari Ostendorf, Luke Zettlemoyer, Noah A. Smith, Tao Yu [Pdf], [웹 사이트] , 2022.10
Chatgpt로 신속한 엔지니어링을 향상시키기위한 신속한 패턴 카탈로그. Jules White, Quchen Fu, Sam Hays, Michael Sandborn, Carlos Olea, Henry Gilbert, Ashraf Elnashar, Jesse Spencer-Smith, Douglas C. Schmidt [PDF], 2023.2
이 섹션에는 신속한 학습 작업, 신속한 학습 방법의 다양한 속성, 신속한 학습 방법의 리밀화를 포함하되 이에 국한되지 않는 신속한 학습 방법의 분석이 포함되어 있습니다.
GPT-3에 대한 좋은 컨텍스트 예제는 무엇입니까? . 프리 인쇄.
Jiachang Liu, Dinghan Shen, Yizhe Zhang, Bill Dolan, Lawrence Carin, Weizhu Chen . [PDF] 2021.1
신속한 가치는 몇 개입니까? NAACL 2021.
Teven Le Scao, Alexander M. Rush. [PDF], [프로젝트], 2021.3
표면 형태 경쟁-가장 높은 확률 답변이 항상 옳은 것은 아닙니다. 프리 인쇄. 프리 인쇄.
Ari Holtzman, Peter West, Vered Schwartz, Yejin Choi, Luke Zettlemoyer. [PDF] [프로젝트], 2021.4
자연 지시 : 자연어 지침에서 새로운 작업에 대한 일반화 벤치마킹. 프리 인쇄.
Swaroop Mishra, Daniel Khashabi, Chitta Baral, Hannaneh Hajishirzi. [PDF], [프로젝트], 2021.4
환상적으로 주문한 프롬프트와 찾을 수있는 곳 : 소수의 프롬프트 순서 민감도 극복 . 프리 인쇄.
Yao Lu, Max Bartolo, Alastair Moore, Sebastian Riedel, Pontus Stenetorp . [PDF] 2021.4
메타 조정 언어 모델에 대한 답변이 더 좋을 것입니다. 프리 인쇄.
Ruiqi Zhong, Kristy Lee*, Zheng Zhang*, Dan Klein . [PDF] 2021.4
언어 모델로 진정한 소수의 학습 . 프리 인쇄.
Ethan Perez, Douwe Kiela, Kyunghyun Cho . [PDF], [프로젝트] 2021.5
사전 치료 된 언어 모델이 다운 스트림 작업에 도움이되는 이유는 무엇입니까? 헤드 분석 및 프롬프트 튜닝 . 프리 인쇄.
Colin Wei는 Michael Xie Tengyu MA [PDF], 2021.6
프롬프트 기반 모델은 프롬프트의 의미를 실제로 이해합니까? 프리 인쇄.
Albert Webson, Ellie Pavlick. [PDF], [프로젝트] 2021.9
소수의 프롬프트 기반 결승에서 추론 휴리스틱을 피하십시오. 프리 인쇄.
Prasetya Ajie Utama, Nafise Sadat Moosavi, Victor Sanh, Iryna Gurevych. [PDF], 2021.9
매개 변수 효율적인 전송 학습에 대한 통일 된 견해를 향해. 프리 인쇄.
Junxian He, Zhou, Xuezhe MA, Taylor Berg-Kirkpatrick, Graham Neubig. [PDF], 2021.10
프롬프트 튜닝을 통해 저 차원 고유 작업 하위 공간 탐색. 프리 인쇄.
Yujia Qin, Xiaozhi Wang, Yusheng SU, Yankai Lin, Ning Ding, Zhiyuan Liu, Juanzi Li, Lei Hou, Peng Li, Maosong Sun, Jie Zhou [PDF]
프롬프트 기반 학습 패러다임의 보편적 취약성 탐색. NAACL 2022의 발견.
Lei Xu, Yangyi Chen, Ganqu Cui, Hongcheng Gao, Zhiyuan Liu [PDF], [프로젝트]
시연의 역할 재고 : 텍스트 내 학습이 작동하는 이유는 무엇입니까?. Arxiv 2022.
Sewon Min, Xinxi Lyu, Ari Holtzman, Mikel Artetxe, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer [PDF], [프로젝트]
매개 변수 효율적인 프롬프트 튜닝은 일반화되고 보정 된 신경 텍스트 리트리버를 만듭니다. 프리 인쇄.
Weng Lam Tam, Xiao Liu, Kaixuan JI, Lilong Xue, Yuxiao Dong, Jiahua Liu, Maodi Hu, Jie Tang [PDF] [프로젝트]
이전 프롬프트를 무시하십시오 : 언어 모델의 공격 기술. 최고의 종이 상 @ Neurips ML 안전 워크숍 2022.
Fábio Perez, Ian Ribeiro [PDF] [Project], 2022.11
이 섹션에는 기본 프롬프트 튜닝 방법의 개선이 포함되어 있으며, 성능 향상에 추가 리소스를 사용하거나 이전 작업의 단점을 구성하거나 불안정한 방식으로 프롬프트 튜닝을 수행하는 것과 포함됩니다.
사용하기 전에 교정 : 언어 모델의 소수의 성능 향상. 프리 인쇄.
Tony Z. Zhao, Eric Wallace, Shi Feng, Dan Klein, Sameer Singh. [PDF], [프로젝트], 2021.2
효율적인 (소프트) Q- 러닝을 가진 텍스트 생성. 프리 인쇄.
Han Guo, Bowen Tan, Zhengzhong Liu, Eric P. Xing, Zhiting Hu. [PDF], 2021.6
지식이 풍부한 프롬프트 조정 : 지식을 텍스트 분류를 위해 프롬프트 언어 분석에 통합합니다. 프리 인쇄.
Shengding Hu, Ning Ding, Huadong Wang, Zhiyuan Liu, Juanzi Li, Maosong Sun. [PDF], [프로젝트], 2021.8
몇 가지 샷 텍스트 분류를위한 시끄러운 채널 언어 모델. 프리 인쇄.
Sewon Min, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer. [PDF], 2021.8
데이터 세트 및 프롬프트 컬렉션에 대한 메타 조정으로 제로 샷 학습을위한 언어 모델을 조정합니다.
Ruiqi Zhong, Kristy Lee* Zheng Zhang*, Dan Klein. [PDF], 2021.9
언어 모델에 대한 소수의 샷 학습에 대한 자기 훈련 재 방문. 프리 인쇄.
Yiming Chen, Yan Zhang, Chen Zhang, Grandee Lee, Ran Cheng, Haizhou Li. [PDF], 2021.10
목록 : Lite 자체 훈련은 효율적인 소수의 학습자를 만듭니다. 프리 인쇄.
Yaqing Wang, Subhabrata Mukherjee, Xiaodong Liu, Jing Gao, Ahmed Hassan Awadallah, Jianfeng Gao. [PDF], 2021.10
프롬프트 기반 소수 샷 튜닝을위한 프로토 타입 언어 분석. ACL 2022.
Ganqu Cui, Shengding Hu, Ning Ding, Longtao Huang, Zhiyuan Liu . [PDF], [프로젝트], 2022.3
BBTV2 : 순수한 블랙 박스 최적화는 소수의 학습을위한 기울기 하강과 비교할 수 있습니다. 프리 인쇄.
Tianxiang Sun, Zhengfu HE, Hong Qian, Xuanjing Huang, Xipeng Qiu [PDF] [Project], 2022.5
이 섹션에는 다양한 NLP 작업을 위해 설계된 신속한 학습 방법이 포함되어 있습니다.
큰 소리로 생각 : 동적 맥락 생성은 GPT-2의 제로 샷 추론 성능을 향상시킵니다. 프리 인쇄.
Gregor Betz, Kyle Richardson, Christian Voigt. [PDF] 2021.3
GPT3MIX : 텍스트 확대를 위해 대규모 언어 모델을 활용합니다. 프리 인쇄.
Kang Min Yoo, Dongju Park, Jaewook Kang, Sang-woo Lee, Woomyeong Park. [PDF] 2021.4
제한된 언어 모델은 시맨틱 파서가 거의 없습니다. 프리 인쇄.
Richard Shin, Christopher H. Lin, Sam Thomson, Charles Chen, Subhro Roy, Emmanouil Antonios Platanios, Adam Pauls, Dan Klein, Jason Eisner, Benjamin van Durme. [PDF] 2021.4
효과적인 제로 및 소수의 관계 추출에 대한 언어 화 및 수반을 표시하십시오. EMNLP 2021.
Oscar Sainz, Oier Lopez de Lacalle, Gorka Labaka, Ander Barrena, Eneko Agirre. [PDF], 2021.4
PADA : 보이지 않는 도메인에 적응하기위한 프롬프트 기반의 자동 회귀 접근법 .
Eyal Ben-David, Nadav Oved, Roi Reichart. [PDF] [프로젝트] 2021.5
세밀한 엔티티 타이핑을위한 프롬프트 학습. 프리 인쇄.
Ning Ding, Yulin Chen, Xu Han, Guangwei Xu, Pengjun Xie, Hai-Tao Zheng, Zhiyuan Liu, Juanzi Li, Hong-Gee Kim [PDF], 2021.8
KnowPrompt : 관계 추출을위한 시너지 최적화로 지식 인식 프롬프트 조정. www 2022.
Xiang Chen, Xin Xie, Ningyu Zhang, Jiahuan Yan, Shumin Deng, Chuanqi Tan, Fei Huang, Luo SI, Huajun Chen. . [PDF], [프로젝트], 2021.9
접지 대화 생성을위한 프롬프트 기반 소수의 학습 탐색. 프리 인쇄.
Chujie Zheng, Minlie Huang. [PDF], 2021.9
sentiprompt : Sentiment Knowledge Aspect-Based Sentiment 분석을위한 프롬프트 조정 향상. 프리 인쇄.
Chengxi Li, Feiyu Gao, Jiajun Bu, Lu Xu, Xiang Chen, Yu Gu, Zirui Shao, Qi Zheng, Ningyu Zhang, Yongpan Wang, Zhi Yu. [PDF] 2021.9
소수의 NER에 대한 템플릿이없는 프롬프트 튜닝. 프리 인쇄.
Ruotian Ma*, Xin Zhou*, Tao Gui, Yiding Tan, Qi Zhang, Xuanjing Huang. [PDF], 2021.9
비전 언어 모델을 신속하게 배운 학습. 프리 인쇄.
Kaiyang Zhou, Jingkang Yang, Chen Change Loy 및 Ziwei Liu. [PDF], 2021.9
CPT : 미리 훈련 된 비전 언어 모델을위한 다채로운 프롬프트 튜닝. 프리 인쇄.
Yuan Yao*, Ao Zhang*, Zhengyan Zhang, Zhiyuan Liu, Tat-Seng Chua, Maosong Sun. [PDF], 2021.10
MSP : 미리 훈련 된 언어 모델을 더 나은 번역기로 만들기위한 다단계 프롬프트. 프리 인쇄.
Zhixing Tan, Xiangwen Zhang, Shuo Wang, Yang Liu. [PDF], 2021.10
소수의 봇 : 대화 시스템에 대한 프롬프트 기반 학습. 프리 인쇄.
Andrea Madotto, Zhaojiang Lin, Genta Indra Winata, Pascale Fung [PDF], 2021.10
텍스트 생성을위한 제어 접두사. 프리 인쇄.
Jordan Clive, Kris Cao, Marek Rei. [PDF], 2021.10
저주적 의미 론적 구문 분석을위한 프롬프트 튜닝의 힘. 프리 인쇄.
Nathan Schucher, Siva Reddy, De Vries에 해를 끼칩니다. [PDF], 2021.10
좋은 프롬프트는 수백만 개의 매개 변수의 가치가 있습니까? 비전 언어 모델을위한 저주적 프롬프트 기반 학습.
Woojeong Jin, Yu Cheng, Yelong Shen, Weizhu Chen, Xiang Ren. [PDF]
Lightner : 저수고 자원에 대한 신속한 유도주의 가벼운 생성 프레임 워크. Coling 2022.
Xiang Chen, Lei Li, Shumin Deng, Chuanqi Tan, Changliang Xu, Fei Huang, Luo Si, Huajun Chen, Ningyu Zhang. [PDF], [프로젝트], 2021.8
Unifiedskg : 텍스트-텍스트 언어 모델을 사용한 통일 및 멀티 태스킹 구조적 지식 접지.
Tianbao Xie*, Chen Henry Wu*, Peng Shi, Ruiqi Zhong, Torsten Scholak, Michihiro Yasunaga, Chien-Sheng Wu, Ming Zhong, Pengcheng Yin, Sida I. Wang, Victor Zhong, Bailin Wang, Chengzu Li, Connor Boyle, Ansong NI, Ziyu Yao, Dragomir Radev, Caiming Xiong, Lingpeng Kong, Rui Zhang, Noah A. Smith, Luke Zettlemoyer, Tao Yu. [PDF], [Project], [웹 사이트], 2022.1
소수의 샷 학습을위한 온톨로지 강화 프롬프트 조정. www 2022.
Hongbin Ye, Ningyu Zhang, Shumin Deng, Xiang Chen, Hui Chen, Feiyu Xiong, Xi Chen, Huajun Chen. [PDF], 2022.1
지속적인 학습을 신속하게 배우는 학습. CVPR 2022.
Zifeng Wang, Zizhao Zhang, Chen-Yu Lee, Han Zhang, Ruoxi Sun, Xiaoqi Ren, Guolong Su, Vincent Perot, Jennifer DY, Tomas Pfister. [PDF], [프로젝트], 2021.12
오픈 북 검사로서의 관계 추출 : 검색 강화 프롬프트 튜닝. 시기 2022.
Xiang Chen, Lei Li, Ningyu Zhang, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen. [PDF], [프로젝트], 2022.5
좋은 시각적 지침은 더 나은 추출기를 만듭니다 : 다중 모드 엔티티 및 관계 추출을위한 계층 적 시각적 접두사. NAACL 2022의 발견.
Xiang Chen, Ningyu Zhang, Lei Li, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Luo SI, Huajun Chen. [PDF], [프로젝트], 2022.5
사고의 사슬은 큰 언어 모델에서 추론을 유도합니다. 프리 프린트 2022.
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed Chi, Quoc LE, Denny Zhou. [PDF]
자기 일관성은 언어 모델에서 사고 추론의 사슬을 향상시킵니다. 프리 프린트 2022.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc LE, Ed Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou. [PDF]
큰 언어 모델은 제로 샷 추론 자입니다. 프리 프린트 2022.
Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa. [PDF]
가장 큰 프롬프트는 대형 언어 모델에서 복잡한 추론을 가능하게합니다. 프리 프린트 2022.
Denny Zhou, Nathanael Schärli, Le Hou, Jason Wei, Nathan Scales, Xuezhi Wang, Dale Schuurmans, Olivier Bousquet, Quoc Le, Ed Chi. [PDF]
Maieutic Prompting : 재귀적인 설명을 가진 논리적으로 일관된 추론. 프리 프린트 2022.
Jaehun Jung, Lianhui Qin, Sean Welleck, Faeze Brahman, Chandra Bhagavatula, Ronan Le Bras, Yejin Choi [PDF]
언어 모델을 더 나은 추론 자로 만드는 발전. 프리 프린트 2022.
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weizhu Chen [PDF]
구성 제로 샷 학습을위한 소프트 프롬프트를 구성하는 법을 배웁니다. 프리 프린트 2022.
Nihal V. Nayak*, Peilin Yu*, Stephen H. Bach [PDF], [프로젝트]
암기로부터 지식을 분리하는 : 검색된 신속한 학습. Neurips 2022.
Xiang Chen, Lei Li, Ningyu Zhang, Xiaozhuan Liang, Shumin Deng, Chuanqi Tan, Fei Huang, Luo SI, Huajun Chen. [PDF], [프로젝트], 2022.5
큰 언어 모델에서 길이 일반화 탐색. 프리 프린트 2022.
Cem Anil, Yuhuai Wu, Anders Andreassen, Aitor Lewkowycz, Vedant Misra, Vinay Ramasesh, Ambrose Slone, Guy Gur-Ari, Ethan Dyer, Behnam Neyshabur [PDF]
나에게 물어보십시오 : 언어 모델을 촉구하기위한 간단한 전략. 프리 프린트 2022.
Simran Arora, Avanika Narayan, Mayee F. Chen, Laurel Orr, Neel Guha, Kush Bhatia, Ines Chami, Frederic Sala, Christopher Ré [PDF]
언어 모델 Preprint 2022에서 구성 성 격차를 측정하고 좁히는 것 .
Ofir Press, Muru Zhang, Sewon Min, Ludwig Schmidt, Noah A. Smith, Mike Lewis [PDF]
RLPROMPT : 강화 학습 Preprint 2022로 개별 텍스트 프롬프트 최적화 .
Mingkai Deng, Jianyu Wang, Cheng-Ping Hsieh, Yihan Wang, Han Guo, Tianmin Shu, Meng Song, Eric P. Xing, Zhiting Hu [PDF]
언어 모델 프롬프트와의 추론 : 설문 조사 사전 인쇄 2022.
Shuofei Qiao, Yixin ou, Ningyu Zhang, Xiang Chen, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Huajun Chen [PDF]
논문 추천에 대해 Yujia Qin, Xiachong Feng, Chenglei SI, Tianbao Xie, Muhtasham Oblokulov에게 감사드립니다.
당신 이이 모든 것을 잘못했다고 걱정하지 마십시오. 우리는 당신을 위해 고칠 것입니다. 여기서 멋진 일을 기여하고 홍보하십시오!
귀하가 아닌 작업을 추천하면 기고자 목록에 추가됩니다 (다른 기여자에게 정보를 제공하십시오).