Kami telah merilis toolkit pembelajaran prompt open-source, lihat OpenPrompt!
Kami sangat mendorong para peneliti yang ingin mempromosikan pekerjaan fantastis mereka kepada masyarakat untuk membuat permintaan tarik untuk memperbarui informasi makalah mereka! (Lihat detail yang berkontribusi)
Adaptasi yang efektif dari model pra-terlatih dapat diselidiki dari perspektif yang berbeda. Pembelajaran cepat lebih fokus pada organisasi prosedur pelatihan dan penyatuan tugas yang berbeda, sementara delta tuning (metode parameter efisien) memberikan arah lain dari optimalisasi spesifik model pra-terlatih. Periksa Deltapapers!
Makalah yang harus dibaca tentang penyetelan berbasis prompt untuk model bahasa pra-terlatih. Daftar kertas terutama diawat oleh Ning Ding dan Shengding Hu. Tonton repositori ini untuk pembaruan terbaru!
Ini adalah daftar kertas tentang penyetelan berbasis prompt untuk model bahasa pra-terlatih skala besar. Berbeda dari fine-tuning tradisional yang menggunakan classifier eksplisit, tuning berbasis prompt secara langsung menggunakan model pra-terlatih untuk melakukan tugas pra-pelatihan untuk klasifikasi atau regresi.
Singkatan dari pekerjaan.
Fitur utama dalam hal pembelajaran cepat yang digunakan dalam pekerjaan.
Tugas pekerjaan yang terutama dieksplorasi.
Properti yang terutama dieksplorasi dari metode pembelajaran yang cepat dalam pekerjaan.
Bagian ini berisi makalah yang meninjau tren umum dalam pemrosesan bahasa alami baru -baru ini dengan model besar (pretrained).
OpenPrompt: Kerangka kerja open-source untuk pembelajaran cepat. Pracetak.
Ning Ding, Shengding Hu, Weilin Zhao, Yulin Chen, Zhiyuan Liu, Hai-Tao Zheng, Maoson Sun [PDF] [Proyek], 2021.11
Model pra-terlatih: masa lalu, sekarang dan masa depan. Pracetak.
Xu Han, Zhengyan Zhang, Ning Ding, Yuxian Gu, Xiao Liu, Yuqi Huo, Jiezhong Qiu, Yuan Yao, Ao Zhang, Liang Zhang, Woao Han, Minlie Huang, Qin Jin, Yanyan Lan, Yang Liu, Zhuan, Zhuan, Zhuan, Zhuan, Zhuan, Zhuan, Zhuan, Zhuan, Zhuan, Zhuan, Zhuy , Xipeng Qiu, lagu Ruihua, Jie Tang, Ji-Rong Wen, Jinhui Yuan, Wayne Xin Zhao, Jun Zhu. [PDF], 2021.6
Pra-pelatihan, prompt, dan prediksi: Survei sistematis tentang metode yang diminta dalam pemrosesan bahasa alami. Pracetak.
Liu, Pengfei, Weizhe Yuan, Jinlan Fu, Zhengbao Jiang, Hiroaki Hayashi, dan Graham Neubig. [PDF] [Proyek], 2021.7
Pergeseran paradigma dalam pemrosesan bahasa alami. Penelitian Kecerdasan Mesin.
Tianxiang Sun, Xiangyang Liu, Xipeng Qiu, Xuanjing Huang [PDF] [Proyek], 2021.9
Bagian ini berisi karya pilot yang mungkin berkontribusi pada prevalensi paradigma pembelajaran yang cepat.
Pembelajaran transfer yang efisien parameter untuk NLP. ICML 2019.
Neil Houlsby, Andrei Giurgiu, Stanislaw Jastrzebski, Bruna Morrone, Quentin de Laroussilhe, Andrea Gesmundo, Mona Attariyan, Sylvain Gelly . [PDF], [Proyek], 2019.6
Menjelajahi batas-batas pembelajaran transfer dengan transformator teks-ke-teks terpadu. Jmlr. Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J. Liu. [PDF], [Proyek]. 2019.10.
Model bahasa sebagai basis pengetahuan? EMNLP 2019.
Fabio Petroni, Tim Rocktaschel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, Alexander H. Miller, Sebastian Riedel. [PDF], [Proyek], 2019.9
Bagaimana kita bisa tahu model bahasa apa yang tahu? TACL 2020.
Zhengbao Jiang, Frank F. Xu, Jun Araki, Graham Neubig . [PDF], [Proyek], 2019.11
Model bahasa adalah pelajar beberapa shot. Neurips 2020.
Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Grey, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Elya Sutskever, Dario Amodei. [PDF], [Situs web], 2020.5
Adaprompt: Pelatihan model adaptif untuk NLP berbasis prompt
Yulong Chen, Yang Liu, Li Dong, Shuohang Wang, Chenguang Zhu, Michael Zeng, Yue Zhang [PDF], 2022.02
Bagian ini berisi eksplorasi pada aspek dasar penyetelan cepat, seperti templat, verbalizer, paradigma pelatihan, dll.
Mengeksploitasi pertanyaan cloze untuk beberapa klasifikasi teks bidikan dan inferensi bahasa alami. EACL 2021.
Timo Schick, Hinrich Schütze. [PDF], [Proyek], 2020.1
Bukan hanya ukuran yang penting: Model bahasa kecil juga merupakan pelajar beberapa shot. NAACL 2021.
Timo Schick, Hinrich Schütze. [PDF], [Proyek], 2020.9
Autoprompt: Memperoleh pengetahuan dari model bahasa dengan petunjuk yang dihasilkan secara otomatis. Pracetak.
Taylor Shin, Yasaman Razeghi, Robert L. Logan IV, Eric Wallace, Sameer Singh. [PDF], [Situs web], 2020.10
Secara otomatis mengidentifikasi kata-kata yang dapat berfungsi sebagai label untuk klasifikasi teks beberapa shot. Coling 2020.
Timo Schick, Helmut Schmid, Hinrich Schütze. [PDF], [Proyek], 2020.12
Membuat model bahasa pra-terlatih lebih baik beberapa pelajar shot. ACL 2021.
Tianyu Gao, Adam Fisch, Danqi Chen. [PDF], [Proyek], 2020.12
PREFIX TUNING: Mengoptimalkan permintaan kontinu untuk generasi . ACL 2021.
Xiang Lisa Li, Percy Liang. [PDF], [Proyek], 2021.1
Pemrograman cepat untuk model bahasa besar: Di luar paradigma beberapa-shot. Pracetak.
Laria Reynolds, Kyle McDonell. [PDF], 2021.2
Meningkatkan dan menyederhanakan pelatihan mengeksploitasi pola. Pracetak.
Derek Tam, Rakesh R Menon, Mohit Bansal, Shashank Srivastava, Colin Raffel. [PDF], 2021.3
GPT juga mengerti. Pracetak.
Xiao Liu, Yanan Zheng, Zhengxiao du, Ming Ding, Yujie Qian, Zhilin Yang, Jie Tang . [PDF], [Proyek], 2021.3
Kekuatan skala untuk penyetelan prompt parameter-efisien. Pracetak.
Brian Lester, Rami al-Rfou, Noah Constant . [PDF], [Proyek], 2021.4
Mempelajari cara bertanya: Meminta LMS dengan campuran permintaan lunak. NAACL 2021.
Guanghui Qin, Jason Eisner. [PDF] [Proyek], 2021.4
Probing faktual adalah [topeng]: belajar vs belajar mengingat. NAACL 2021.
Zexuan Zhong, Dan Friedman, Danqi Chen. [PDF], [Proyek], 2021.4
Mengurangi petunjuk dan parameter: pembelajaran beberapa shot sederhana dengan model bahasa. Pracetak.
Robert L. Logan IV, Ivana Balažević, Eric Wallace, Fabio Petroni, Sameer Singh, Sebastian Riedel . [PDF], 2021.6
Warp: Pemrograman ulang permusuhan tingkat kata. ACL 2021.
Karen Hambardzumyan, Hrant Khachatrian, Jonathan May. [PDF], [Proyek], 2021.6
PTR: Penyetelan cepat dengan aturan untuk klasifikasi teks. Pracetak.
Xu Han, Weilin Zhao, Ning Ding, Zhiyuan Liu, Maosong Sun. [PDF], 2021.5
NSP-BERT: Pelajar zero-shot berbasis prompt melalui tugas pra-pelatihan asli —— prediksi kalimat berikutnya
Yi Sun*, Yu Zheng*, Chao Hao, Hangping Qiu , [PDF], [Proyek], 2021.9
Model bahasa finetuned adalah pelajar zero-shot.
Ason Wei, Maarten Bosma, Vincent Y. Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai, Quoc V. Le. [PDF], 2021.9
PPT: Tuning prompt pra-terlatih untuk pembelajaran beberapa shot
Yuxian Gu*, Xu Han*, Zhiyuan Liu, Minlie Huang. [PDF], 2021.9
Prompt yang dapat dibedakan membuat model bahasa pra-terlatih lebih baik beberapa pelajar shot. ICLR 2022.
Ningyu Zhang, Luoqiu Li, Xiang Chen, Shumin Deng, Zhen BI, Chuanqi Tan, Fei Huang, Huajun Chen. [PDF], [Proyek], 2021.10
Multitask memicu pelatihan memungkinkan generalisasi tugas zero-shot.
Victor Sanh, Albert Webson, Colin Raffel, Stephen H. Bach, Lintang Sutawika, Zaid Alyafeai, Antoine Chaffin, Arnaud Stiegler, Teven Le Scao, Arun Raja, Manan Dey, M Saiful Bari, Canwen Xu, Urmish Thakker, Shanya Sharma Sharma, Eliza Szczechla, Taewoon Kim, Gunjan Chhablani, Nihal Nayak, Debajyoti Datta, Jonathan Chang, Mike Tian-Jian Jiang, Han Wang, Matteo Manica, Sheng Shen, Zheng Xin Yong, Harshit Pandey, Rachel Bawden, Thomas Wang, Trishala Neeraj, Jos Rozen, Abheesht Sharma, Andrea Santilli, Thibault Fevry, Jason Alan Fries, Ryan Teehan, Stella Biderman, Leo Gao, Tali Bers, Thomas Wolf, Alexander M. Rush. [PDF], 2021.10
P-Tuning V2: Penyetelan cepat dapat sebanding dengan finetuning secara universal di seluruh skala dan tugas. ACL 2022.
Xiao Liu, Kaixuan JI, Yicheng Fu, Zhengxiao Du, Zhilin Yang, Jie Tang [PDF], [Proyek], 2021.10
Tuning kotak hitam untuk model bahasa-sebagai-layanan. ICML 2022.
Tianxiang Sun, Yunfan Shao, Hong Qian, Xuanjing Huang, Xipeng Qiu [PDF], [Proyek], 2022.1
Black-Box Prompt Learning untuk model bahasa pra-terlatih. Pracetak.
Shizhe Diao, Xuechun Li, Yong Lin, Zhichao Huang, Tong Zhang [PDF], 2022.1
Model bahasa yang mengikat dalam bahasa simbolik. Pracetak.
Zhoujun Cheng*, Tianbao Xie*, Peng Shi, Chengzu Li, Rahul Nadkarni, Yushi Hu, Caiming Xiong, Dragomir Radev, Mari Ostendorf, Luke Zettlemoyer, Noah A. Smith, Tao Yu [pdf], [project], [website] , 2022.10
Katalog pola cepat untuk meningkatkan rekayasa cepat dengan chatgpt. Jules White, Quchen Fu, Sam Hays, Michael Sandborn, Carlos Olea, Henry Gilbert, Ashraf Elnashar, Jesse Spencer-Smith, Douglas C. Schmidt [PDF], 2023.2
Bagian ini berisi analisis metode pembelajaran yang cepat, termasuk tetapi tidak terbatas pada mengapa pekerjaan pembelajaran yang cepat, berbagai sifat metode pembelajaran yang cepat, pembatasan metode pembelajaran yang cepat.
Apa yang membuat contoh dalam konteks yang baik untuk GPT-3? . Pracetak.
Jiachang Liu, Dinghan Shen, Yizhe Zhang, Bill Dolan, Lawrence Carin, Weizhu Chen . [PDF] 2021.1
Berapa banyak titik data yang bernilai tinggi? NAACL 2021.
Teven Le Scao, Alexander M. Rush. [PDF], [Proyek], 2021.3
Persaingan Surface-Kompetisi-Jika jawaban probabilitas tertinggi tidak selalu benar. Pracetak. Pracetak.
Ari Holtzman, Peter West, Vered Schwartz, Yejin Choi, Luke Zettlemoyer. [PDF] [Proyek], 2021.4
Instruksi Alami: Benchmarking Generalisasi untuk Tugas Baru dari Instruksi Bahasa Alami. Pracetak.
Swaroop Mishra, Daniel Khashabi, Chitta Baral, Hananeh Hajishirzi. [PDF], [Proyek], 2021.4
Permohonan yang dipesan secara fantastis dan di mana menemukannya: mengatasi sensitivitas pesanan cepat beberapa tembakan . Pracetak.
Yao Lu, Max Bartolo, Alastair Moore, Sebastian Riedel, Pontus Stenetorp . [PDF] 2021.4
Model bahasa meta-tuning untuk menjawab permintaan dengan lebih baik. Pracetak.
Ruiqi Zhong, Kristy Lee*, Zheng Zhang*, Dan Klein . [PDF] 2021.4
Pembelajaran beberapa tembakan sejati dengan model bahasa . Pracetak.
Ethan Perez, Douwe Kiela, Kyunghyun Cho . [PDF], [Proyek] 2021.5
Mengapa model bahasa pretrained membantu dalam tugas hilir? Analisis tuning kepala dan prompt . Pracetak.
Colin Wei Sang Michael Xie Tengyu Ma [PDF], 2021.6
Apakah model berbasis prompt benar-benar memahami arti dari petunjuknya? Pracetak.
Albert Webson, Ellie Pavlick. [PDF], [Proyek] 2021.9
Menghindari heuristik inferensi dalam beberapa finetuning berbasis cepat. Pracetak.
Prasetya Ajie Utama, Nafise Sadat Moosavi, Victor Sanh, Iryna Gurevych. [PDF], 2021.9
Menuju tampilan terpadu dari pembelajaran transfer yang efisien parameter. Pracetak.
Junxian HE, Chunting Zhou, Xuezhe MA, Taylor Berg-Kirkpatrick, Graham Neubig. [PDF], 2021.10
Menjelajahi subruang tugas intrinsik dimensi rendah melalui penyetelan cepat. Pracetak.
Yujia Qin, Xiaozhi Wang, Yusheng Su, Yankai Lin, Ning Ding, Zhiyuan Liu, Juanzi LI, Lei Hou, Peng Li, Maosong Sun, Jie Zhou [PDF]
Menjelajahi kerentanan universal paradigma pembelajaran berbasis prompt. Temuan NAACL 2022.
Lei Xu, Yangyi Chen, Ganqu Cui, Hongcheng Gao, Zhiyuan Liu [PDF], [Proyek]
Memikirkan kembali peran demonstrasi: Apa yang membuat pembelajaran dalam konteks bekerja?. ARXIV 2022.
Sewon Min, Xinxi Lyu, Ari Holtzman, Mikel Artetxe, Mike Lewis, Hananeh Hajishirzi, Luke Zettlemoyer [PDF], [Proyek]
Parameter-efisien penyetelan cepat membuat pengambilan teks saraf yang digeneralisasi dan dikalibrasi. Pracetak.
Weng Lam Tam, Xiao Liu, Kaixuan JI, Lilong Xue, Yuxiao Dong, Jiahua Liu, Maodi Hu, Jie Tang [PDF] [Proyek]
Abaikan prompt sebelumnya: Teknik serangan untuk model bahasa. Penghargaan Kertas Terbaik @ Neurips ML Safety Workshop 2022.
Fábio Perez, Ian Ribeiro [PDF] [Proyek], 2022.11
Bagian ini berisi peningkatan metode penyetelan prompt dasar, termasuk tetapi tidak terbatas untuk menggunakan sumber daya tambahan untuk meningkatkan kinerja, membuat kekurangan pekerjaan sebelumnya atau melakukan penyetelan cepat dengan cara yang tidak biasa.
Kalibrasi Sebelum digunakan: Meningkatkan beberapa kinerja model bahasa. Pracetak.
Tony Z. Zhao, Eric Wallace, Shi Feng, Dan Klein, Sameer Singh. [PDF], [Proyek], 2021.2
Pembuatan teks dengan learning Q yang efisien (lunak). Pracetak.
Han Guo, Bowen Tan, Zhengzhong Liu, Eric P. Xing, Zhiting Hu. [PDF], 2021.6
Tuning prompt yang berpengetahuan: memasukkan pengetahuan ke verbalizer cepat untuk klasifikasi teks. Pracetak.
Shengding Hu, Ning Ding, Huadong Wang, Zhiyuan Liu, Juanzi LI, Maosong Sun. [PDF], [Proyek], 2021.8
Model bahasa saluran yang berisik meminta klasifikasi teks beberapa shot. Pracetak.
Sewon Min, Mike Lewis, Hananeh Hajishirzi, Luke Zettlemoyer. [PDF], 2021.8
Mengadaptasi model bahasa untuk pembelajaran nol-shot dengan meta-tuning pada dataset dan koleksi cepat.
Ruiqi Zhong, Kristy Lee* Zheng Zhang*, Dan Klein. [PDF], 2021.9
Meninjau kembali pelatihan diri untuk pembelajaran beberapa shot dari model bahasa. Pracetak.
Yiming Chen, Yan Zhang, Chen Zhang, Grandee Lee, Ran Cheng, Haizhou Li. [PDF], 2021.10
Daftar: Pelatihan diri Lite membuat pelajar beberapa-shot yang efisien. Pracetak.
Yaqing Wang, Subhabrata Mukherjee, Xiaodong Liu, Jing Gao, Ahmed Hassan Awadallah, Jianfeng Gao. [PDF], 2021.10
Verbalizer prototipikal untuk penyetelan beberapa-shot berbasis prompt. ACL 2022.
Ganqu Cui, Shengding Hu, Ning Ding, Longtao Huang, Zhiyuan Liu . [PDF], [Proyek], 2022.3
BBTV2: Optimalisasi kotak hitam murni dapat sebanding dengan keturunan gradien untuk pembelajaran beberapa shot. Pracetak.
Tianxiang Sun, Zhengfu HE, Hong Qian, Xuanjing Huang, Xipeng Qiu [PDF] [Proyek], 2022.5
Bagian ini berisi metode pembelajaran cepat yang dirancang untuk berbagai tugas NLP.
Berpikir keras: Pembuatan konteks dinamis meningkatkan kinerja penalaran nol-tembakan dari GPT-2. Pracetak.
Gregor Betz, Kyle Richardson, Christian Voigt. [PDF] 2021.3
GPT3MIX: Memanfaatkan model bahasa skala besar untuk augmentasi teks. Pracetak.
Kang Min Yoo, Taman Dongju, Jaewook Kang, Sang-Woo Lee, Woomyeong Park. [PDF] 2021.4
Model bahasa terbatas menghasilkan parser semantik beberapa-shot. Pracetak.
Richard Shin, Christopher H. Lin, Sam Thomson, Charles Chen, Subhro Roy, Emmanouil Antonios Platanios, Adam Pauls, Dan Klein, Jason Eisner, Benjamin Van Durme. [PDF] 2021.4
Label verbalisasi dan usaha untuk ekstraksi hubungan nol dan beberapa-shot yang efektif. EMNLP 2021.
Oscar Sainz, Oier Lopez de Lacalle, Gorka Labaka, Ander Barrena, Eneko Agirre. [PDF], 2021.4
Pada: Pendekatan autoregresif berbasis prompt untuk adaptasi ke preprint domain yang tidak terlihat .
Eyal Ben-David, Nadav Oved, Roi Reichart. [PDF] [Proyek] 2021.5
Pembelajaran cepat untuk pengetikan entitas berbutir halus. Pracetak.
Ning Ding, Yulin Chen, Xu Han, Guangwei Xu, Pengjun Xie, Hai-Tao Zheng, Zhiyuan Liu, Juanzi LI, Hong-Gee Kim [PDF], 2021.8
KnowPrompt: Pengetahuan-sadar-tuning dengan optimasi sinergis untuk ekstraksi hubungan. Www 2022.
Xiang Chen, Xin Xie, Ningyu Zhang, Jiahuan Yan, Shumin Deng, Chuanqi Tan, Fei Huang, Luo SI, Huajun Chen. . [PDF], [Proyek], 2021.9
Menjelajahi pembelajaran beberapa shot berbasis prompt untuk pembuatan dialog grounded. Pracetak.
Chujie Zheng, Minlie Huang. [PDF], 2021.9
Sentiprompt: Pengetahuan sentimen meningkatkan tuning prompt untuk analisis sentimen berbasis aspek. Pracetak.
Chengxi Li, Feiyu Gao, Jiajun Bu, Lu Xu, Xiang Chen, Yu Gu, Zirui Shao, Qi Zheng, Ningyu Zhang, Yongpan Wang, Zhi Yu. [PDF] 2021.9
Penyetelan prompt bebas template untuk beberapa shot ner. Pracetak.
Ruotian Ma*, Xin Zhou*, Tao Gui, Yiding Tan, Qi Zhang, Xuanjing Huang. [PDF], 2021.9
Belajar meminta untuk model penglihatan-bahasa. Pracetak.
Kaiyang Zhou, Jingkang Yang, Chen Change Loy, dan Ziwei Liu. [PDF], 2021.9
CPT: Tuning prompt berwarna-warni untuk model bahasa penglihatan pra-terlatih. Pracetak.
Yuan Yao*, Ao Zhang*, Zhengyan Zhang, Zhiyuan Liu, Tat-Seng Chua, Maosong Sun. [PDF], 2021.10
MSP: Didorong multi-tahap untuk membuat model bahasa pra-terlatih yang lebih baik penerjemah. Pracetak.
Zhixing Tan, Xiangwen Zhang, Shuo Wang, Yang Liu. [PDF], 2021.10
Bot beberapa-shot: Pembelajaran berbasis cepat untuk sistem dialog. Pracetak.
Andrea Madotto, Zhaojiang Lin, Genta Indra Winata, Pascale Fung [PDF], 2021.10
Kontrol awalan untuk pembuatan teks. Pracetak.
Jordan Clive, Kris Cao, Marek Rei. [PDF], 2021.10
Kekuatan penyetelan cepat untuk parsing semantik sumber daya rendah. Pracetak.
Nathan Schucher, Siva Reddy, Harm de Vries. [PDF], 2021.10
Prompt yang bagus bernilai jutaan parameter? Pembelajaran berbasis cepat berbasis sumber daya rendah untuk model penglihatan-bahasa.
Woojeong Jin, Yu Cheng, Yelong Shen, Weizhu Chen, Xiang Ren. [PDF]
Lightner: Kerangka kerja generatif yang ringan dengan perhatian yang dipandu dengan cepat untuk Ner yang beralasan rendah. Coling 2022.
Xiang Chen, Lei Li, Shumin Deng, Chuanqi Tan, Changliang Xu, Fei Huang, Luo SI, Huajun Chen, Ningyu Zhang. [PDF], [Proyek], 2021.8
UnifiedSKG: Mempersatukan dan multi-tasking pengetahuan terstruktur dengan model bahasa teks-ke-teks.
Tianbao Xie*, Chen Henry Wu*, Peng Shi, Ruiqi Zhong, Torsten Scholak, Michihiro Yasunaga, Chien-Sheng Wu, Ming Zhong, Pengcheng Yin, Connor I. Wang, Victor Zhong, Bailin Wang, Chengzu Li, Connor, Victor, Bailin Wang, Chengzu Li, Connor, Victor, Bailin Wang, Chengzu, Ni, Ziyu Yao, Dragomir Radev, Caiming Xiong, Lingpeng Kong, Rui Zhang, Noah A. Smith, Luke Zettlemoyer, Tao Yu. [pdf], [proyek], [situs web], 2022.1
Tuning prompt yang ditingkatkan ontologi untuk pembelajaran beberapa shot. Www 2022.
Hongbin Ye, Ningyu Zhang, Shumin Deng, Xiang Chen, Hui Chen, Feiyu Xiong, Xi Chen, Huajun Chen. [PDF], 2022.1
Belajar meminta pembelajaran terus -menerus. CVPR 2022.
Zifeng Wang, Zizhao Zhang, Chen-Yu Lee, Han Zhang, Ruoxi Sun, Xiaoqi Ren, Guoloong Su, Vincent Perot, Jennifer DY, Tomas Pfister. [PDF], [Proyek], 2021.12
Ekstraksi relasi sebagai pemeriksaan buku terbuka: penyetelan cepat yang ditingkatkan. Sigir 2022.
Xiang Chen, Lei Li, Ningyu Zhang, Chuanqi Tan, Fei Huang, Luo SI, Huajun Chen. [PDF], [Proyek], 2022.5
Bimbingan visual yang baik membuat ekstraktor yang lebih baik: awalan visual hierarkis untuk entitas multimodal dan ekstraksi hubungan. Temuan NAACL 2022.
Xiang Chen, Ningyu Zhang, Lei Li, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Luo SI, Huajun Chen. [PDF], [Proyek], 2022.5
Rantai pemikiran yang mendorong memunculkan penalaran dalam model bahasa besar. Pracetak 2022.
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed Chi, Quoc LE, Denny Zhou. [PDF]
Konsistensi diri meningkatkan penalaran rantai pemikiran dalam model bahasa. Pracetak 2022.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou. [PDF]
Model bahasa besar adalah alasan nol-shot. Pracetak 2022.
Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa. [PDF]
Permintaan paling tidak paling penting memungkinkan penalaran kompleks dalam model bahasa besar. Pracetak 2022.
Denny Zhou, Nathanael Schärli, Le Hou, Jason Wei, Nathan Scales, Xuezhi Wang, Dale Schuurmans, Olivier Bousquet, Quoc LE, Ed Chi. [PDF]
MAIEUTIC CONTEPTING: Penalaran yang konsisten secara logis dengan penjelasan rekursif. Pracetak 2022.
Jaehun Jung, Lianhui Qin, Sean Welleck, Faeze Brahman, Chandra Bhagavatula, Ronan Le Bras, Yejin Choi [PDF]
Di muka membuat model bahasa yang lebih baik. Pracetak 2022.
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weizhu Chen [PDF]
Belajar menyusun soft prompt untuk pembelajaran nol-shot komposisi. Pracetak 2022.
Nihal V. Nayak*, Peilin Yu*, Stephen H. Bach [PDF], [Proyek]
Pengetahuan Decoupling dari Hafalan: Pembelajaran yang cepat-cepat. Neurips 2022.
Xiang Chen, Lei Li, Ningyu Zhang, Xiaozhuan Liang, Shumin Deng, Chuanqi Tan, Fei Huang, Luo SI, Huajun Chen. [PDF], [Proyek], 2022.5
Menjelajahi generalisasi panjang dalam model bahasa besar. Pracetak 2022.
Cem Anil, Yuhuai Wu, Anders Andreassen, Aitor Lewkowycz, Vedant Misra, Vinay Ramasesh, Ambrose Slone, Guy Gur-ari, Ethan Dyer, Behnam Neyshabur [PDF]
Tanyakan apa saja: Strategi sederhana untuk mendorong model bahasa. Pracetak 2022.
Simran Arora, Avanika Narayan, Mayee F. Chen, Laurel Orr, Neel Guha, Kush Bhatia, Ines Chami, Frederic Sala, Christopher Ré [PDF]
Mengukur dan mempersempit kesenjangan komposisionalitas dalam model bahasa preprint 2022.
Ofir Press, Muru Zhang, Sewon Min, Ludwig Schmidt, Noah A. Smith, Mike Lewis [PDF]
RLPROMPT: Mengoptimalkan permintaan teks diskrit dengan preprint pembelajaran penguatan 2022.
Mingkai Deng, Jianyu Wang, Cheng-Ping Hsieh, Yihan Wang, Han Guo, Tianmin Shu, Meng Song, Eric P. Xing, Zhiting Hu [PDF]
Penalaran dengan Model Bahasa yang Dipicu: Survei Preprint 2022.
Shuofei Qiao, Yixin ou, Ningyu Zhang, Xiang Chen, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Huajun Chen [PDF]
Kami berterima kasih kepada Yujia Qin, Xiachong Feng, Chenglei SI, Tianbao Xie, Muhtasham Oblokulov untuk rekomendasi kertas.
Jangan khawatir jika Anda salah, kami akan memperbaikinya untuk Anda. Cukup berkontribusi dan promosikan pekerjaan luar biasa Anda di sini!
Jika Anda merekomendasikan pekerjaan yang bukan milik Anda, Anda akan ditambahkan ke daftar kontributor (pastikan untuk memberikan informasi Anda di kontributor lain).