เราได้เปิดตัวชุดเครื่องมือการเรียนรู้พรอมต์โอเพนซอร์ซลองดู OpenPrompt!
เราขอแนะนำให้นักวิจัยที่ต้องการส่งเสริมการทำงานที่ยอดเยี่ยมของพวกเขาให้กับชุมชนเพื่อขอ การร้องขอการ ดึงข้อมูลกระดาษของพวกเขา! (ดูรายละเอียดที่มีส่วนร่วม)
การปรับตัวที่มีประสิทธิภาพของแบบจำลองที่ผ่านการฝึกอบรมมาก่อนสามารถตรวจสอบได้จากมุมมองที่แตกต่างกัน การเรียนรู้ที่รวดเร็วยิ่งขึ้นมุ่งเน้นไปที่การจัดระเบียบขั้นตอนการฝึกอบรมและการรวมงานที่แตกต่างกันในขณะที่การปรับจูนเดลต้า (วิธีการที่มีประสิทธิภาพพารามิเตอร์) ให้ทิศทางอื่นจากการเพิ่มประสิทธิภาพเฉพาะของโมเดลที่ผ่านการฝึกอบรมมาก่อน ตรวจสอบ deltapapers!
เอกสารที่ต้องอ่านเกี่ยวกับการปรับแต่งตามพรอมต์สำหรับโมเดลภาษาที่ผ่านการฝึกอบรมมาก่อน รายการกระดาษส่วนใหญ่จะถูก mantained โดย Ning Ding และ Shengding Hu ดูที่เก็บนี้สำหรับการอัปเดตล่าสุด!
นี่คือรายการกระดาษเกี่ยวกับ การปรับแต่งตามพรอมต์ สำหรับโมเดลภาษาที่ผ่านการฝึกอบรมมาก่อนขนาดใหญ่ แตกต่างจากการปรับจูนแบบดั้งเดิมที่ใช้ตัวจําแนกที่ชัดเจนการปรับแต่งตามพรอมต์ใช้แบบจำลองที่ผ่านการฝึกอบรมมาก่อนเพื่อดำเนินงานก่อนการฝึกอบรมสำหรับการจำแนกหรือการถดถอย
ตัวย่อของงาน
คุณสมบัติที่สำคัญในแง่ของการเรียนรู้ที่รวดเร็วที่ใช้ในงาน
งานที่สำรวจส่วนใหญ่ของงาน
คุณสมบัติที่สำรวจส่วนใหญ่ของวิธีการเรียนรู้ที่รวดเร็วในงาน
ส่วนนี้มีเอกสารที่ภาพรวมแนวโน้มทั่วไปในการประมวลผลภาษาธรรมชาติเมื่อเร็ว ๆ นี้ด้วยแบบจำลองขนาดใหญ่ (pretrained)
OpenPrompt: เฟรมเวิร์กโอเพ่นซอร์สสำหรับการเรียนรู้ล่วงหน้า พิมพ์ล่วงหน้า
Ning Ding, Shengding Hu, Weilin Zhao, Yulin Chen, Zhiyuan Liu, Hai-Tao Zheng, Maoson Sun [PDF] [โครงการ], 2021.11
โมเดลที่ผ่านการฝึกอบรมมาก่อน: อดีตปัจจุบันและอนาคต พิมพ์ล่วงหน้า
Xu Han, Zhengyan Zhang, Ning Ding, Yuxian Gu, Xiao Liu, Yuqi Huo, Jiezhong Qiu, Yuan Yao, Ao Zhang, Liang Zhang, Wentao Han, Minlie Huang, Qin Jin, Yanyan, Yanyan , xipeng Qiu, Ruihua Song, Jie Tang, Ji-Rong Wen, Jinhui Yuan, Wayne Xin Zhao, Jun Zhu [PDF], 2021.6
Pre-Train, Promp และ Predict: การสำรวจอย่างเป็นระบบของวิธีการแจ้งเตือนในการประมวลผลภาษาธรรมชาติ พิมพ์ล่วงหน้า
Liu, Pengfei, Weizhe Yuan, Jinlan Fu, Zhengbao Jiang, Hiroaki Hayashi และ Graham Neubig [PDF] [โครงการ], 2021.7
การเปลี่ยนกระบวนทัศน์ในการประมวลผลภาษาธรรมชาติ การวิจัยข่าวกรองของเครื่องจักร
Tianxiang Sun, Xiangyang Liu, Xipeng Qiu, Xuanjing Huang [PDF] [โครงการ], 2021.9
ส่วนนี้มีงานนำร่องที่อาจก่อให้เกิดความชุกของกระบวนทัศน์การเรียนรู้ที่รวดเร็ว
การเรียนรู้การถ่ายโอนพารามิเตอร์สำหรับ NLP ICML 2019
Neil Houlsby, Andrei Giurgiu, Stanislaw Jastrzebski, Bruna Morrone, Quentin de Laroussilhe, Andrea Gesmundo, Mona Attariyan, Sylvain Gelly [PDF], [โครงการ], 2019.6
การสำรวจขีด จำกัด ของการเรียนรู้การถ่ายโอนด้วยหม้อแปลงข้อความเป็นแบบรวมเป็นข้อความ Jmlr Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J. Liu [PDF], [โครงการ] 2019.10.
แบบจำลองภาษาเป็นฐานความรู้? EMNLP 2019
Fabio Petroni, Tim Rocktaschel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, Alexander H. Miller, Sebastian Riedel [PDF], [โครงการ], 2019.9
เราจะรู้ได้อย่างไรว่ารูปแบบภาษาใดรู้ Tacl 2020
Zhengbao Jiang, Frank F. Xu, Jun Araki, Graham Neubig [PDF], [โครงการ], 2019.11
แบบจำลองภาษาเป็นผู้เรียนไม่กี่คน Neurips 2020
Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal Ramesh, Daniel M. Ziegler Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Grey, หมากรุกเบนจามิน, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei [PDF], [เว็บไซต์], 2020.5
Adaprompt: การฝึกอบรมแบบจำลองแบบปรับตัวสำหรับ NLP ตามพรอมต์
Yulong Chen, Yang Liu, Li Dong, Shuohang Wang, Chenguang Zhu, Michael Zeng, Yue Zhang [PDF], 2022.02
ส่วนนี้มีการสำรวจในแง่มุมพื้นฐานของการปรับแต่งทันทีเช่นเทมเพลต, Veralizer, กระบวนทัศน์การฝึกอบรม ฯลฯ
การใช้ประโยชน์จากคำถาม Cloze สำหรับการจำแนกข้อความช็อตและการอนุมานภาษาตามธรรมชาติ EACL 2021
Timo Schick, Hinrich Schütze [PDF], [โครงการ], 2020.1
ไม่ใช่แค่ขนาดที่สำคัญ: โมเดลภาษาขนาดเล็กยังเป็นผู้เรียนไม่กี่คน NAACL 2021
Timo Schick, Hinrich Schütze [PDF], [โครงการ], 2020.9
Autoprompt: แสดงความรู้จากแบบจำลองภาษาที่มีพรอมต์ที่สร้างขึ้นโดยอัตโนมัติ พิมพ์ล่วงหน้า
Taylor Shin, Yasaman Razeghi, Robert L. Logan IV, Eric Wallace, Sameer Singh [PDF], [เว็บไซต์], 2020.10
ระบุคำที่สามารถใช้เป็นฉลากสำหรับการจำแนกข้อความไม่กี่ภาพ Coling 2020
Timo Schick, Helmut Schmid, Hinrich Schütze [PDF], [โครงการ], 2020.12
ทำให้แบบจำลองภาษาที่ผ่านการฝึกอบรมมาก่อนผู้เรียนไม่กี่คน ACL 2021
Tianyu Gao, Adam Fisch, Danqi Chen [PDF], [โครงการ], 2020.12
คำนำหน้าการปรับแต่ง: การเพิ่มประสิทธิภาพการแจ้งเตือนอย่างต่อเนื่องสำหรับการสร้าง ACL 2021
Xiang Lisa Li, Percy Liang [PDF], [โครงการ], 2021.1
การเขียนโปรแกรมที่รวดเร็วสำหรับโมเดลภาษาขนาดใหญ่: นอกเหนือจากกระบวนทัศน์ไม่กี่นัด พิมพ์ล่วงหน้า
Laria Reynolds, Kyle McDonell [PDF], 2021.2
การปรับปรุงและทำให้รูปแบบการฝึกอบรมการใช้ประโยชน์ง่ายขึ้น พิมพ์ล่วงหน้า
Derek Tam, Rakesh R Menon, Mohit Bansal, Shashank Srivastava, Colin Raffel [PDF], 2021.3
GPT ก็เข้าใจเช่นกัน พิมพ์ล่วงหน้า
Xiao Liu, Yanan Zheng, Zhengxiao Du, Ming Ding, Yujie Qian, Zhilin Yang, Jie Tang [PDF], [โครงการ], 2021.3
กำลังของสเกลสำหรับการปรับแต่งพารามิเตอร์-ef fi cient พิมพ์ล่วงหน้า
Brian Lester, Rami al-Rfou, Noah Constant [PDF], [โครงการ], 2021.4
เรียนรู้วิธีการถาม: การสอบถาม LMS ด้วยการผสมของพรอมต์อ่อน NAACL 2021
Guanghui Qin, Jason Eisner [PDF] [โครงการ], 2021.4
การตรวจสอบข้อเท็จจริงคือ [หน้ากาก]: การเรียนรู้กับการเรียนรู้ที่จะเรียกคืน NAACL 2021
Zexuan Zhong, Dan Friedman, Danqi Chen [PDF], [โครงการ], 2021.4
การลดการแจ้งเตือนและพารามิเตอร์: การเรียนรู้แบบไม่กี่ภาพที่เรียบง่ายด้วยแบบจำลองภาษา พิมพ์ล่วงหน้า
Robert L. Logan IV, Ivana Balažević, Eric Wallace, Fabio Petroni, Sameer Singh, Sebastian Riedel [PDF], 2021.6
WARP: การเขียนโปรแกรม reprogramming reprogramming ระดับคำ ACL 2021
Karen Hambardzumyan, Hrant Khachatrian, Jonathan May [PDF], [โครงการ], 2021.6
PTR: การปรับแต่งพร้อมกฎสำหรับการจำแนกข้อความ พิมพ์ล่วงหน้า
Xu Han, Weilin Zhao, Ning Ding, Zhiyuan Liu, Maosong Sun [PDF], 2021.5
NSP-BERT: ผู้เรียนรู้ค่าซัน
Yi Sun*, Yu Zheng*, Chao Hao, Hangping Qiu , [PDF], [โครงการ], 2021.9
แบบจำลองภาษา Finetuned เป็นผู้เรียนที่ไม่มีการยิง
Ason Wei, Maarten Bosma, Vincent Y. Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai, Quoc V. Le [PDF], 2021.9
PPT: การปรับแต่งพร้อมที่ได้รับการฝึกอบรมล่วงหน้าสำหรับการเรียนรู้ไม่กี่นัด
Yuxian Gu*, Xu Han*, Zhiyuan Liu, Minlie Huang [PDF], 2021.9
พรอมต์ที่แตกต่างกันทำให้โมเดลภาษาที่ผ่านการฝึกอบรมมาล่วงหน้าดีกว่าผู้เรียนไม่กี่คน ICLR 2022
Ningyu Zhang, Luoqiu Li, Xiang Chen, Shumin Deng, Zhen Bi, Chuanqi Tan, Fei Huang, Huajun Chen [PDF], [โครงการ], 2021.10
การฝึกอบรมมัลติทาสก์ทำให้การฝึกอบรมเป็นแบบไม่มีการยิง
Victor Sanh, Albert Webson, Colin Raffel, Stephen H. Bach, Lintang Sutawika, Zaid Alyafeai, Antoine Chaffin, Arnaud Stiegler, Teven Le Scao, Arun Raja, Manan Dey Eliza Szczechla Taewoon Kim, Gunjan Chhablani, Nihal Nayak, Debajyoti Datta, Jonathan Chang, Mike Tian-Jian Jiang, Han Wang, Matteo Manica, Sheng Shen, Zheng Xin Yong, Harshit Pandey, Rachel Bawden, Thomas Wang Sharma, Andrea Santilli, Thibault Fevry, Jason Alan Fries, Ryan Teehan, Stella Biderman, Leo Gao, Tali Bers, Thomas Wolf, Alexander M. Rush [PDF], 2021.10
P-Tuning V2: การปรับแต่งพร้อมใช้งานสามารถเทียบเคียงได้กับการปรับระดับความเป็นสากลในระดับสเกลและงาน ACL 2022
Xiao Liu, Kaixuan Ji, Yicheng Fu, Zhengxiao DU, Zhilin Yang, Jie Tang [PDF], [โครงการ], 2021.10
การปรับแต่งกล่องดำสำหรับแบบจำลองภาษา-เป็นบริการ ICML 2022
Tianxiang Sun, Yunfan Shao, Hong Qian, Xuanjing Huang, Xipeng Qiu [PDF], [โครงการ], 2022.1
การเรียนรู้ที่รวดเร็วของกล่องดำสำหรับโมเดลภาษาที่ผ่านการฝึกอบรมมาก่อน พิมพ์ล่วงหน้า
Shizhe Diao, Xuechun Li, Yong Lin, Zhichao Huang, Tong Zhang [PDF], 2022.1
แบบจำลองภาษาที่มีผลผูกพันในภาษาสัญลักษณ์ พิมพ์ล่วงหน้า
Zhoujun Cheng*, Tianbao Xie*, Peng Shi, Chengzu Li, Rahul Nadkarni, Yushi Hu, Caiming Xiong, Dragomir Radev, Mari Ostendorf, Luke Zettlemoyer, Noah A. Smith, Tao Yu [ PDF] , 2022.10
แคตตาล็อกรูปแบบที่รวดเร็วเพื่อปรับปรุงวิศวกรรมที่รวดเร็วด้วย CHATGPT Jules White, Quchen Fu, Sam Hays, Michael Sandborn, Carlos Olea, Henry Gilbert, Ashraf Elnashar, Jesse Spencer-Smith, Douglas C. Schmidt [PDF], 2023.2
ส่วนนี้มีการวิเคราะห์วิธีการเรียนรู้ที่รวดเร็วรวมถึง แต่ไม่ จำกัด เฉพาะเหตุใดการเรียนรู้ที่รวดเร็วคุณสมบัติต่าง ๆ ของวิธีการเรียนรู้ที่รวดเร็วการ จำกัด วิธีการเรียนรู้ที่รวดเร็ว
อะไรทำให้ตัวอย่างในบริบทที่ดีสำหรับ GPT-3? - พิมพ์ล่วงหน้า
Jiachang Liu, Dinghan Shen, Yizhe Zhang, Bill Dolan, Lawrence Carin, Weizhu Chen [PDF] 2021.1
มีกี่จุดข้อมูลที่คุ้มค่า? NAACL 2021
Teven Le Scao, Alexander M. Rush [PDF], [โครงการ], 2021.3
การแข่งขันแบบฟอร์มพื้นผิว-ทำไมคำตอบความน่าจะเป็นสูงสุดจึงไม่ถูกต้องเสมอไป พิมพ์ล่วงหน้า พิมพ์ล่วงหน้า
Ari Holtzman, Peter West, Vered Schwartz, Yejin Choi, Luke Zettlemoyer [PDF] [โครงการ], 2021.4
คำแนะนำตามธรรมชาติ: การเปรียบเทียบการวางนัยทั่วไปไปยังงานใหม่จากคำแนะนำภาษาธรรมชาติ พิมพ์ล่วงหน้า
Swaroop Mishra, Daniel Khashabi, Chitta Baral, Hannaneh Hajishirzi [PDF], [โครงการ], 2021.4
คำสั่งซื้อที่น่าอัศจรรย์และสถานที่ที่จะหาพวกเขา: เอาชนะความไวต่อการสั่งซื้อไม่กี่ครั้ง พิมพ์ล่วงหน้า
เหยาลู, แม็กซ์บาร์โตโล, อลาสแตร์มัวร์, เซบาสเตียน Riedel, Pontus Stenetorp [PDF] 2021.4
โมเดลภาษาเมตาปรับแต่งเพื่อตอบกลับดีขึ้น พิมพ์ล่วงหน้า
Ruiqi Zhong, Kristy Lee*, Zheng Zhang*, Dan Klein [PDF] 2021.4
การเรียนรู้ไม่กี่ครั้งที่แท้จริงกับแบบจำลองภาษา พิมพ์ล่วงหน้า
Ethan Perez, Douwe Kiela, Kyunghyun Cho [PDF], [โครงการ] 2021.5
ทำไมแบบจำลองภาษาที่ผ่านการฝึกอบรมช่วยในงานดาวน์สตรีม? การวิเคราะห์การปรับแต่งศีรษะและการปรับแต่ง พิมพ์ล่วงหน้า
Colin Wei ร้องเพลง Michael Xie Tengyu MA [PDF], 2021.6
โมเดลที่มีพื้นฐานมาจากการพร้อมที่จะเข้าใจความหมายของพรอมต์ของพวกเขาหรือไม่? พิมพ์ล่วงหน้า
Albert Webson, Ellie Pavlick [PDF], [โครงการ] 2021.9
การหลีกเลี่ยงการวิเคราะห์การวิเคราะห์เชิงการอนุมานใน finetuning ที่ใช้การช็อตไม่กี่ครั้ง พิมพ์ล่วงหน้า
Prasetya Ajie Utama, Nafise Sadat Moosavi, Victor Sanh, Iryna Gurevych [PDF], 2021.9
สู่มุมมองแบบครบวงจรของการเรียนรู้การถ่ายโอนพารามิเตอร์ที่มีประสิทธิภาพ พิมพ์ล่วงหน้า
Junxian He, Chunting Zhou, Xuezhe MA, Taylor Berg-Kirkpatrick, Graham Neubig [PDF], 2021.10
การสำรวจพื้นที่ทำงานที่แท้จริงในมิติต่ำผ่านการปรับจูนทันที พิมพ์ล่วงหน้า
Yujia Qin, Xiaozhi Wang, Yusheng Su, Yankai Lin, Ning Ding, Zhiyuan Liu, Juanzi Li, Lei Hou, Peng Li, Maosong Sun, Jie Zhou [PDF]
การสำรวจช่องโหว่สากลของกระบวนทัศน์การเรียนรู้ที่รวดเร็ว ผลการวิจัยของ NAACL 2022
Lei Xu, Yangyi Chen, Ganquan Cui, Hongcheng Gao, Zhiyuan Liu [PDF], [โครงการ]
ทบทวนบทบาทของการสาธิต: สิ่งที่ทำให้การเรียนรู้ในบริบท? Arxiv 2022
Sewon Min, Xinxi Lyu, Ari Holtzman, Mikel Artetxe, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer [PDF], [โครงการ]
การปรับแต่งพารามิเตอร์ที่มีประสิทธิภาพทำให้การดึงข้อความประสาทแบบทั่วไปและสอบเทียบ พิมพ์ล่วงหน้า
Weng Lam Tam, Xiao Liu, Kaixuan Ji, Lilong Xue, Yuxiao Dong, Jiahua Liu, Maodi Hu, Jie Tang [PDF] [โครงการ]
ไม่สนใจพรอมต์ก่อนหน้า: เทคนิคการโจมตีสำหรับแบบจำลองภาษา รางวัล Best Paper Award @ Neurips ML Safety Workshop 2022
Fábio Perez, Ian Ribeiro [PDF] [โครงการ], 2022.11
ส่วนนี้มีการปรับปรุงวิธีการปรับแต่งเบื้องต้นขั้นพื้นฐานรวมถึง แต่ไม่ จำกัด เฉพาะการใช้ทรัพยากรเพิ่มเติมเพื่อปรับปรุงการแสดงทำให้ข้อบกพร่องของงานก่อนหน้านี้หรือดำเนินการปรับแต่งทันทีในรูปแบบที่ไม่เป็นทางการ
สอบเทียบก่อนการใช้งาน: ปรับปรุงประสิทธิภาพการยิงไม่กี่แบบของแบบจำลองภาษา พิมพ์ล่วงหน้า
Tony Z. Zhao, Eric Wallace, Shi Feng, Dan Klein, Sameer Singh [PDF], [โครงการ], 2021.2
การสร้างข้อความที่มีประสิทธิภาพ (อ่อน) q-learning พิมพ์ล่วงหน้า
Han Guo, Bowen Tan, Zhengzhong Liu, Eric P. Xing, Zhiting Hu [PDF], 2021.6
การปรับจูนที่มีความรู้: การรวมความรู้เข้ากับ Verbalizer พร้อมใช้งานสำหรับการจำแนกประเภทข้อความ พิมพ์ล่วงหน้า
Shengding Hu, Ning Ding, Huadong Wang, Zhiyuan Liu, Juanzi Li, Maosong Sun [PDF], [โครงการ], 2021.8
โมเดลภาษาช่องที่มีเสียงดังพร้อมสำหรับการจำแนกประเภทข้อความไม่กี่ตัว พิมพ์ล่วงหน้า
Sewon Min, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer [PDF], 2021.8
การปรับรูปแบบภาษาสำหรับการเรียนรู้แบบไม่มีการยิงโดยการปรับแต่งเมตาในชุดข้อมูลและคอลเลกชันที่รวดเร็ว
Ruiqi Zhong, Kristy Lee* Zheng Zhang*, Dan Klein [PDF], 2021.9
ทบทวนการฝึกอบรมตนเองเพื่อการเรียนรู้แบบจำลองภาษา พิมพ์ล่วงหน้า
Yiming Chen, Yan Zhang, Chen Zhang, Grandee Lee, Ran Cheng, Haizhou Li [PDF], 2021.10
รายการ: การฝึกอบรมด้วยตนเองของ Lite ทำให้ผู้เรียนไม่กี่คนที่มีประสิทธิภาพ พิมพ์ล่วงหน้า
Yaqing Wang, Subhabrata Mukherjee, Xiaodong Liu, Jing Gao, Ahmed Hassan Awadallah, Jianfeng Gao [PDF], 2021.10
verbalizer ต้นแบบสำหรับการปรับแต่งแบบไม่กี่ครั้ง ACL 2022
Ganquan Cui, Shengding Hu, Ning Ding, Longtao Huang, Zhiyuan Liu [PDF], [โครงการ], 2022.3
BBTV2: การเพิ่มประสิทธิภาพกล่องดำบริสุทธิ์สามารถเทียบเคียงได้กับเชื้อสายไล่ระดับสีสำหรับการเรียนรู้ไม่กี่ครั้ง พิมพ์ล่วงหน้า
Tianxiang Sun, Zhengfu HE, Hong Qian, Xuanjing Huang, Xipeng Qiu [PDF] [โครงการ], 2022.5
ส่วนนี้มีวิธีการเรียนรู้ที่รวดเร็วที่ออกแบบมาสำหรับงาน NLP ต่างๆ
การคิดออกเสียง: การสร้างบริบทแบบไดนามิกช่วยเพิ่มประสิทธิภาพการใช้เหตุผลแบบไม่มีการยิงของ GPT-2 พิมพ์ล่วงหน้า
Gregor Betz, Kyle Richardson, Christian Voigt [PDF] 2021.3
GPT3MIX: ใช้ประโยชน์จากแบบจำลองภาษาขนาดใหญ่สำหรับการเพิ่มข้อความ พิมพ์ล่วงหน้า
Kang Min Yoo, Dongju Park, Jaewook Kang, Sang-Woo Lee, Woomyeong Park [PDF] 2021.4
แบบจำลองภาษาที่มีข้อ จำกัด ให้ตัวแยกวิเคราะห์ความหมายไม่กี่ตัว พิมพ์ล่วงหน้า
Richard Shin, Christopher H. Lin, Sam Thomson, Charles Chen, Subhro Roy, Emmanouil Antonios Platanios, Adam Pauls, Dan Klein, Jason Eisner, Benjamin Van Durme [PDF] 2021.4
ฉลากด้วยวาจาและการส่งมอบเพื่อการแยกความสัมพันธ์แบบศูนย์และไม่กี่ครั้ง EMNLP 2021
Oscar Sainz, Oier Lopez de Lacalle, Gorka Labaka, Ander Barrena, Eneko Agirre [PDF], 2021.4
PADA: วิธีการอัตโนมัติแบบอัตโนมัติสำหรับการปรับตัวให้เข้ากับโดเมนที่มองไม่เห็น preprint
Eyal Ben-David, Nadav Oved, Roi Reichart [PDF] [โครงการ] 2021.5
การเรียนรู้พร้อมท์สำหรับการพิมพ์เอนทิตีที่ละเอียด พิมพ์ล่วงหน้า
Ning Ding, Yulin Chen, Xu Han, Guangwei Xu, Pengjun Xie, Hai-Tao Zheng, Zhiyuan Liu, Juanzi Li, Hong-Gee Kim [PDF], 2021.8
ความรู้: การปรับแต่งความรู้ด้วยความรู้พร้อมกับการเพิ่มประสิทธิภาพการทำงานร่วมกันสำหรับการสกัดความสัมพันธ์ www 2022
Xiang Chen, Xin Xie, Ningyu Zhang, Jiahuan Yan, Shumin Deng, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen - [PDF], [โครงการ], 2021.9
การสำรวจการเรียนรู้แบบไม่กี่นัดสำหรับการสร้างบทสนทนา พิมพ์ล่วงหน้า
Chujie Zheng, Minlie Huang [PDF], 2021.9
Sentiprompt: ความรู้ความเข้าใจเพิ่มขึ้นการปรับจูนพร้อมท์สำหรับการวิเคราะห์ความเชื่อมั่นตามมุมมอง พิมพ์ล่วงหน้า
Chengxi Li, Feiyu Gao, Jiajun Bu, Lu Xu, Xiang Chen, Yu Gu, Zirui Shao, Qi Zheng, Ningyu Zhang, Yongpan Wang, Zhi Yu [PDF] 2021.9
การปรับแต่งแบบพรอมต์แบบไม่ใช้เทมเพลตสำหรับไม่กี่คน พิมพ์ล่วงหน้า
Ruotian Ma*, Xin Zhou*, Tao Gui, Yiding Tan, Qi Zhang, Xuanjing Huang [PDF], 2021.9
เรียนรู้ที่จะพร้อมสำหรับแบบจำลองภาษาวิสัยทัศน์ พิมพ์ล่วงหน้า
Kaiyang Zhou, Jingkang Yang, Chen Change Loy และ Ziwei Liu [PDF], 2021.9
CPT: การปรับแต่งสีสันสดใสสำหรับรุ่นวิสัยทัศน์ภาษาที่ผ่านการฝึกอบรมมาก่อน พิมพ์ล่วงหน้า
Yuan Yao*, Ao Zhang*, Zhengyan Zhang, Zhiyuan Liu, Tat-Seng Chua, Maosong Sun [PDF], 2021.10
MSP: การแจ้งเตือนหลายขั้นตอนสำหรับการสร้างแบบจำลองภาษาที่ผ่านการฝึกอบรมมาก่อน พิมพ์ล่วงหน้า
Zhixing Tan, Xiangwen Zhang, Shuo Wang, Yang Liu [PDF], 2021.10
ไม่กี่บอทบอท: การเรียนรู้ตามพรอมต์สำหรับระบบบทสนทนา พิมพ์ล่วงหน้า
Andrea Madotto, Zhaojiang Lin, Genta Indra Winata, Pascale Fung [PDF], 2021.10
คำนำหน้าควบคุมสำหรับการสร้างข้อความ พิมพ์ล่วงหน้า
Jordan Clive, Kris Cao, Marek Rei [PDF], 2021.10
พลังของการปรับจูนพร้อมสำหรับการแยกความหมายที่มีทรัพยากรต่ำ พิมพ์ล่วงหน้า
Nathan Schucher, Siva Reddy, Harm de Vries [PDF], 2021.10
พรอมต์ที่ดีคือพารามิเตอร์นับล้าน? การเรียนรู้แบบรวดเร็วตามทรัพยากรต่ำสำหรับแบบจำลองภาษาวิสัยทัศน์
Woojeong Jin, Yu Cheng, Yelong Shen, Weizhu Chen, Xiang Ren [PDF]
Lightner: เฟรมเวิร์กกำเนิดที่มีน้ำหนักเบาพร้อมความสนใจที่รวดเร็วสำหรับผู้ที่ได้รับความสนใจ Coling 2022
Xiang Chen, Lei Li, Shumin Deng, Chuanqi Tan, Changliang Xu, Fei Huang, Luo Si, Huajun Chen, Ningyu Zhang [PDF], [โครงการ], 2021.8
UnifiedSKG: การรวมความรู้ที่มีโครงสร้างแบบรวมและมัลติทาสกิ้งแบบมีโครงสร้างด้วยโมเดลภาษาแบบข้อความเป็นข้อความ
Tianbao Xie*, Chen Henry Wu*, Peng Shi, Ruiqi Zhong, Torsten Scholak, Michihiro Yasunaga, Chien-Sheng Wu, Ming Zhong, Pengcheng Yin, Sida I. Wang, Victor Zhong, Bailin Wang, Chengzu Li Ni, Ziyu Yao, Dragomir Radev, Caiming Xiong, Lingpeng Kong, Rui Zhang, Noah A. Smith, Luke Zettlemoyer, Tao Yu [PDF], [โครงการ], [เว็บไซต์], 2022.1
การปรับจูนออนโทโลจีเพื่อการเรียนรู้ไม่กี่ครั้ง www 2022
Hongbin Ye, Ningyu Zhang, Shumin Deng, Xiang Chen, Hui Chen, Feiyu Xiong, Xi Chen, Huajun Chen [PDF], 2022.1
เรียนรู้ที่จะพร้อมสำหรับการเรียนรู้อย่างต่อเนื่อง CVPR 2022
Zifeng Wang, Zizhao Zhang, Chen-yu Lee, Han Zhang, Ruoxi Sun, Xiaoqi Ren, Guolong Su, Vincent Perot, Jennifer DY, Tomas Pfister [PDF], [โครงการ], 2021.12
การสกัดความสัมพันธ์เป็นการตรวจสอบแบบเปิดหนังสือ: การปรับแต่งการดึงข้อมูลการดึง Sigir 2022
Xiang Chen, Lei Li, Ningyu Zhang, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen [PDF], [โครงการ], 2022.5
คำแนะนำด้านภาพที่ดีทำให้ตัวแยกที่ดีขึ้น: คำนำหน้าภาพแบบลำดับชั้นสำหรับเอนทิตีหลายรูปแบบและการสกัดความสัมพันธ์ ผลการวิจัยของ NAACL 2022
Xiang Chen, Ningyu Zhang, Lei Li, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen [PDF], [โครงการ], 2022.5
ห่วงโซ่แห่งความคิดกระตุ้นให้เกิดการให้เหตุผลในรูปแบบภาษาขนาดใหญ่ Preprint 2022
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed Chi, Quoc Le, Denny Zhou [PDF]
ความสม่ำเสมอของตนเองช่วยปรับปรุงห่วงโซ่การให้เหตุผลทางความคิดในแบบจำลองภาษา Preprint 2022
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou [PDF]
แบบจำลองภาษาขนาดใหญ่เป็นเหตุผลที่ไม่มีการยิง Preprint 2022
Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa [PDF]
การแจ้งเตือนอย่างน้อยที่สุดช่วยให้การใช้เหตุผลที่ซับซ้อนในรูปแบบภาษาขนาดใหญ่ Preprint 2022
Denny Zhou, Nathanael Schärli, Le Hou, Jason Wei, Nathan Scales, Xuezhi Wang, Dale Schuurmans, Olivier Bousquet, Quoc Le, Ed Chi [PDF]
การแจ้งเตือน Maieutic: การใช้เหตุผลที่สอดคล้องกันอย่างมีเหตุผลพร้อมคำอธิบายแบบเรียกซ้ำ Preprint 2022
Jaehun Jung, Lianhui Qin, Sean Weleck, Faeze Brahman, Chandra Bhagavatula, Ronan Le Bras, Yejin Choi [PDF]
ล่วงหน้าของการทำให้แบบจำลองภาษามีเหตุผลดีขึ้น Preprint 2022
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weizhu Chen [PDF]
เรียนรู้ที่จะเขียนพรอมต์ที่อ่อนนุ่มสำหรับการเรียนรู้แบบไม่มีการยิง Preprint 2022
Nihal V. Nayak*, Peilin Yu*, Stephen H. Bach [PDF], [โครงการ]
decoupling ความรู้จากการท่องจำ: การเรียนรู้ที่รวดเร็ว Neurips 2022
Xiang Chen, Lei Li, Ningyu Zhang, Xiaozhuan Liang, Shumin Deng, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen [PDF], [โครงการ], 2022.5
สำรวจความยาวทั่วไปในรูปแบบภาษาขนาดใหญ่ Preprint 2022
Cem Anil, Yuhuai Wu, Anders Andreassen, Aitor Lewkowycz, Vedant Misra, Vinay Ramasesh, Ambrose Slone, Guy Gur-Ari, Ethan Dyer, Behnam Neyshabur [PDF]
ถามอะไรก็ได้: กลยุทธ์ง่ายๆสำหรับการแจ้งรูปแบบภาษา Preprint 2022
Simran Arora, Avanika Narayan, Mayee F. Chen, Laurel Orr, Neel Guha, Kush Bhatia, Ines Chami, Frederic Sala, Christopher Ré [PDF]
การวัดและการ จำกัด ช่องว่างการเรียงความในรูปแบบภาษา preprint 2022
Ofir Press, Muru Zhang, Sewon Min, Ludwig Schmidt, Noah A. Smith, Mike Lewis [PDF]
RLPROMPT: การเพิ่มประสิทธิภาพข้อความที่ไม่ต่อเนื่องพร้อมกับการเรียนรู้การเสริมแรง ล่วงหน้า 2022
Mingkai Deng, Jianyu Wang, Cheng-ping Hsieh, Yihan Wang, Han Guo, Tianmin Shu, Meng Song, Eric P. Xing, Zhiting Hu [PDF]
การให้เหตุผลกับการแจ้งเตือนแบบจำลองภาษา: การสำรวจ preprint 2022
Shuofei Qiao, Yixin OU, Ningyu Zhang, Xiang Chen, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Huajun Chen [PDF]
เราขอขอบคุณ Yujia Qin, Xiachong Feng, Chenglei Si, Tianbao Xie, Muhtasham Oblokulov สำหรับคำแนะนำกระดาษ
ไม่ต้องกังวลหากคุณทำผิดทั้งหมดเราจะแก้ไขให้คุณ เพียงแค่มีส่วนร่วมและโปรโมตงานที่ยอดเยี่ยมของคุณที่นี่!
หากคุณแนะนำงานที่ไม่ใช่ของคุณคุณจะถูกเพิ่มเข้าไปในรายชื่อผู้สนับสนุน (อย่าลืมให้ข้อมูลของคุณในผู้มีส่วนร่วมอื่น ๆ )