Lançamos um kit de ferramentas de aprendizado rápido de código aberto, confira o OpenPrompt!
Incentivamos fortemente os pesquisadores que desejam promover seu trabalho fantástico à comunidade para fazer solicitação de puxar para atualizar as informações de seus documentos! (Consulte detalhes contribuintes)
A adaptação eficaz de modelos pré-treinados pode ser investigada de diferentes perspectivas. O aprendizado de prompt se concentra mais na organização do procedimento de treinamento e na unificação de diferentes tarefas, enquanto o ajuste da Delta (Métodos eficientes em Parâmetro) fornece outra direção a partir da otimização específica de modelos pré-treinados. Verifique Deltapapers!
Os artigos de leitura obrigatória sobre ajustes rápidos para modelos de idiomas pré-treinados. A lista de papel é causada principalmente por Ning Ding e Shengding Hu. Assista a este repositório para obter as atualizações mais recentes!
Esta é uma lista de papel sobre ajuste rápido para modelos de idiomas pré-treinados em larga escala. Diferente do ajuste fino tradicional que usa um classificador explícito, o ajuste rápido usa diretamente os modelos pré-treinados para conduzir as tarefas de pré-treinamento para classificação ou regressão.
A abreviação do trabalho.
Os principais recursos em termos de aprendizado imediato usados no trabalho.
A tarefa principalmente explorada do trabalho.
A propriedade principalmente explorada de métodos de aprendizado imediato no trabalho.
Esta seção contém os artigos que visualizam as tendências gerais nos recentes modelos de linguagem natural com grandes modelos (pré -treinados).
OpenPrompt: uma estrutura de código aberto para um prompt-learning. Pré -impressão.
Ning Ding, Shengding Hu, Weilin Zhao, Yulin Chen, Zhiyuan Liu, Hai-Tao Zheng, Maoson Sun [PDF] [Projeto], 2021.11
Modelos pré-treinados: passado, presente e futuro. Pré -impressão.
Xu Han, Zhengyan Zhang, Ning Ding, Yuxian Gu, Xiao Liu, Yuqi Huo, Jiezhong Qiu, Yuan Yao, Ao Zhang, Liang Zhang, Wentao Han, Minlie Huang, Qin Jin, Yanyan Lan, Yang Liu, Zhiyuan Liu, Zhiwu Lu , XIPENG Qiu, Ruihua Song, Jie Tang, Ji-Rong Wen, Jinhui Yuan, Wayne Xin Zhao, Jun Zhu. [PDF], 2021.6
Pré-treinar, solicitar e prever: uma pesquisa sistemática de métodos de impulsionamento no processamento de linguagem natural. Pré -impressão.
Liu, Pengfei, Weizhe Yuan, Jinlan Fu, Zhengbao Jiang, Hiroaki Hayashi e Graham Neubig. [PDF] [Project], 2021.7
Mudança de paradigma no processamento da linguagem natural. Pesquisa de inteligência de máquinas.
Tianxiang Sun, Xiangyang Liu, Xipeng Qiu, Xuanjing Huang [PDF] [Projeto], 2021.9
Esta seção contém os trabalhos piloto que podem contribuir para a prevalência de paradigma de aprendizado imediato.
Aprendizagem de transferência com eficiência de parâmetro para PNL. ICML 2019.
Neil Houlsby, Andrei Giurgiu, Stanislaw Jastrzebski, Bruna Morrone, Quentin de Laroussilhe, Andrea Gesmundo, Mona Attariyan, Sylvain Gelly . [PDF], [Project], 2019.6
Explorando os limites do aprendizado de transferência com um transformador de texto em texto unificado. Jmlr. Colin Raffel, Noam Orhaques, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J. Liu. [PDF], [Projeto]. 2019.10.
Modelos de idiomas como bases de conhecimento? EMNLP 2019.
Fabio Petroni, Tim Rocktaschel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, Alexander H. Miller, Sebastian Riedel. [PDF], [Project], 2019.9
Como podemos saber quais modelos de idiomas sabem? TACL 2020.
Zhengbao Jiang, Frank F. Xu, Jun Araki, Graham Neubig . [PDF], [Project], 2019.11
Modelos de idiomas são poucos alunos. Neurips 2020.
Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Sastry Girish, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei. [PDF], [Site], 2020.5
ADAPROMPT: Treinamento de modelo adaptativo para PNL baseado em PROMP
Yulong Chen, Yang Liu, Li Dong, Shuohang Wang, Chenguang Zhu, Michael Zeng, Yue Zhang [PDF], 2022.02
Esta seção contém a exploração sobre os aspectos básicos do ajuste imediato, como modelo, verbalizador, paradigmas de treinamento, etc.
Explorando as perguntas de cloze para poucas tiro de classificação de texto e inferência de linguagem natural. EACL 2021.
Timo Schick, Hinrich Schütze. [PDF], [Project], 2020.1
Não é apenas o tamanho que importa: pequenos modelos de idiomas também são poucos alunos. NAACL 2021.
Timo Schick, Hinrich Schütze. [PDF], [Project], 2020.9
Autoprompt: provocando conhecimento de modelos de idiomas com instruções geradas automaticamente. Pré -impressão.
Taylor Shin, Yasaman Razeghi, Robert L. Logan IV, Eric Wallace, Sameer Singh. [PDF], [Site], 2020.10
Identificando automaticamente as palavras que podem servir como rótulos para classificação de texto com poucas fotos. Coling 2020.
Timo Schick, Helmut Schmid, Hinrich Schütze. [PDF], [Project], 2020.12
Fazendo modelos de idiomas pré-treinados melhores alunos de poucos anos. ACL 2021.
Tianyu Gao, Adam Fisch, Danqi Chen. [PDF], [Project], 2020.12
Tuneamento de prefixos: otimizando instruções contínuas para a geração . ACL 2021.
Xiang Lisa Li, Percy Liang. [PDF], [Project], 2021.1
Programação imediata para modelos de linguagem grandes: além do paradigma de poucos tiros. Pré -impressão.
Laria Reynolds, Kyle McDonell. [PDF], 2021.2
Melhorando e simplificando o treinamento de exploração de padrões. Pré -impressão.
Derek Tam, Rakesh R Menon, Mohit Bansal, Shashank Srivastava, Colin Raffel. [PDF], 2021.3
O GPT também entende. Pré -impressão.
Xiao Liu, Yanan Zheng, Zhengxiao DU, Ming Ding, Yujie Qian, Zhilin Yang, Jie Tang . [PDF], [Project], 2021.3
O poder de escala para o ajuste rápido do parâmetro-eficiente. Pré -impressão.
Brian Lester, Rami al-Rfou, Noah Constant . [PDF], [Project], 2021.4
Aprendendo a perguntar: Consultando LMS com misturas de avisos suaves. NAACL 2021.
Guanghui Qin, Jason Eisner. [PDF] [Project], 2021.4
A sondagem factual é [máscara]: aprender versus aprender a recordar. NAACL 2021.
Zexuan Zhong, Dan Friedman, Danqi Chen. [PDF], [Project], 2021.4
Cortando as instruções e parâmetros: aprendizado simples de poucos tiros com modelos de idiomas. Pré -impressão.
Robert L. Logan IV, Ivana Balažević, Eric Wallace, Fabio Petroni, Sameer Singh, Sebastian Riedel . [PDF], 2021.6
Urdidura: reprogramação adversária no nível da palavra. ACL 2021.
Karen Hambardzumyan, Hrant Khachatrian, Jonathan May. [PDF], [Project], 2021.6
PTR: Ajuste rápido com regras para classificação de texto. Pré -impressão.
Xu Han, Weilin Zhao, Ning Ding, Zhiyuan Liu, Maosong Sun. [PDF], 2021.5
NSP-Bert: Um aluno de tiro zero baseado em uma tarefa de pré-treinamento original-Próxima previsão de frases
Yi Sun*, Yu Zheng*, Chao Hao, Hanging Qiu , [PDF], [Project], 2021.9
Os modelos de idiomas FinetUned são alunos de tiro zero.
Ason Wei, Maarten Bosma, Vincent Y. Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai, Quoc V. Le. [PDF], 2021.9
PPT: ajuste rápido pré-treinado para aprendizado de poucos anos
Yuxian Gu*, Xu Han*, Zhiyuan Liu, Minlie Huang. [PDF], 2021.9
Prompt diferenciável torna os modelos de idiomas pré-treinados melhores alunos de poucos anos. ICLR 2022.
Ningyu Zhang, Luoqiu Li, Xiang Chen, Shumin Deng, Zhen BI, Chuanqi Tan, Fei Huang, Huajun Chen. [PDF], [Project], 2021.10
O treinamento solicitado por várias tarefas permite a generalização da tarefa zero.
Victor Sanh, Albert Webson, Colin Raffel, Stephen H. Bach, Lintang Sutawika, Zaid Alyafeai, Antoine Chaffin, Arnaud Stiegler, Teven Le Scao, Arun Raja, Manan Dey, M Saiful Bari, Canwen Xu, Urmish Thakker, Shanya Sharma Sharma, Eliza Szczechla, Taewoon Gunjan Chhablani, Nihal Nayak, DeBajyoti Datta, Jonathan Chang, Mike Tian-Jian Jiang, Han Wang, Matteo Manica, Sheng Shen, Zheng Xin Yong, Harshit Pandey, Rachel Bawden, Thomas Wang, Trishala Neer, Nera, Harshit Pandey, Rachel Bawden, Thomas Wang, Trishala Neer, Nera, Harshit Pandey, Rachel Bawden, Thomas Wang, Trishala , Andrea Santilli, Thibault Fevry, Jason Alan Fries, Ryan Teehan, Stella Biderman, Leo Gao, Tali Bers, Thomas Wolf, Alexander M. Rush. [PDF], 2021.10
P2 de ajuste p: ajuste imediato pode ser comparável ao Finetuning universalmente em escalas e tarefas. ACL 2022.
Xiao Liu, Kaixuan JI, Yicheng Fu, Zhengxiao DU, Zhilin Yang, Jie Tang [PDF], [Project], 2021.10
Ajuste de caixa preta para modelo de idioma como serviço. ICML 2022.
Tianxiang Sun, Yunfan Shao, Hong Qian, Xuanjing Huang, XIPENG QIU [PDF], [Project], 2022.1
Aprendizagem imediata de caixa preta para modelos de idiomas pré-treinados. Pré -impressão.
Shizhe Diao, Xuechun Li, Yong Lin, Zhichao Huang, Tong Zhang [PDF], 2022.1
Modelos de linguagem de ligação em idiomas simbólicos. Pré -impressão.
Zhoujun Cheng*, Tianbao Xie*, Peng Shi, Chengzu Li, Rahul Nadkarni, Yushi Hu, Caiming Xiong, Dragomir Radev, Mari Ostendorf, Luke Zettlemoyer, Noah A. Smith, Tao Yu [pdf], [project], [website] , 2022.10
Um catálogo de padrões imediatos para aprimorar a engenharia imediata com o ChatGPT. Jules White, Quchen Fu, Sam Hays, Michael Sandborn, Carlos Olea, Henry Gilbert, Ashraf Elnashar, Jesse Spencer-Smith, Douglas C. Schmidt [PDF], 2023.2
Esta seção contém a análise dos métodos de aprendizado imediato, incluindo, entre outros, por que o aprendizado de o aprendizado de trabalho, várias propriedades dos métodos de aprendizado imediato, limilação de métodos imediatos de aprendizado.
O que faz bons exemplos de contexto para o GPT-3? . Pré -impressão.
Jiachang Liu, Dinghan Shen, Yizhe Zhang, Bill Dolan, Lawrence Carin, Weizhu Chen . [PDF] 2021.1
Quantos pontos de dados valem um rápido? NAACL 2021.
Teven Le Scao, Alexander M. Rush. [PDF], [Project], 2021.3
Competição de forma de superfície--por que a mais alta resposta de probabilidade nem sempre é correta. Pré -impressão. Pré -impressão.
Ari Holtzman, Peter West, Vered Schwartz, Yejin Choi, Luke Zettlemoyer. [PDF] [Project], 2021.4
Instruções naturais: Benchmarking Generalização para novas tarefas a partir de instruções de linguagem natural. Pré -impressão.
Swaroop Mishra, Daniel Khashabi, Chitta Baral, Hannaneh Hajishirzi. [PDF], [Project], 2021.4
Prompts de ordens fantástica e onde encontrá-las: superando a sensibilidade à ordem pronta de poucas fotos . Pré -impressão.
Yao Lu, Max Bartolo, Alastair Moore, Sebastian Riedel, Pontus Stenenetorp . [PDF] 2021.4
Modelos de idiomas de meta-ajuste para responder a instruções melhor. Pré -impressão.
Ruiqi Zhong, Kristy Lee*, Zheng Zhang*, Dan Klein . [PDF] 2021.4
True Aprendizagem de poucos tiros com modelos de idiomas . Pré -impressão.
Ethan Perez, Douwe Kiela, Kyunghyun Cho . [PDF], [Projeto] 2021.5
Por que os modelos de idiomas pré -rastreados ajudam em tarefas a jusante? Uma análise da cabeça e ajuste imediato . Pré -impressão.
Colin Wei cantou Michael Xie Tengyu Ma [PDF], 2021.6
Os modelos rápidos baseados realmente entendem o significado de seus avisos? Pré -impressão.
Albert Webson, Ellie Pavlick. [PDF], [Projeto] 2021.9
Evitando heurísticas de inferência na Finetuning de poucas fotos baseadas em prontuários. Pré -impressão.
Prasetya Ajie Utama, Nafise Sadat Moosavi, Victor Sanh, Iryna Gurevych. [PDF], 2021.9
Em direção a uma visão unificada do aprendizado de transferência eficiente em parâmetro. Pré -impressão.
Junxian He, Chunting Zhou, Xuezhe MA, Taylor Berg-Kirkpatrick, Graham Neubig. [PDF], 2021.10
Explorando subespaço de tarefa intrínseca de baixa dimensão por meio de ajuste rápido. Pré -impressão.
Yujia Qin, Xiaozhi Wang, Yusheng Su, Yankai Lin, Ning Ding, Zhiyuan Liu, Juanzi Li, Lei Hou, Peng Li, Maosong Sun, Jie Zhou [PDF]
Explorando a vulnerabilidade universal do paradigma de aprendizagem imediata. Achados de NAACL 2022.
Lei Xu, Yangyi Chen, Ganqu CUI, Hongcheng Gao, Zhiyuan Liu [PDF], [Projeto]
Repensando o papel das demonstrações: o que faz o aprendizado no contexto funcionar?. ARXIV 2022.
Sewon Min, Xinxi Lyu, Ari Holtzman, Mikel Artetxe, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer [PDF], [Projeto]
O ajuste rápido com eficiência de parâmetro faz retrievers de texto neural generalizado e calibrado. Pré -impressão.
Weng Lam Tam, Xiao Liu, Kaixuan JI, Lilong Xue, Yuxiao Dong, Jiahua Liu, Maodi Hu, Jie Tang [PDF] [Projeto]
Ignore o prompt anterior: técnicas de ataque para modelos de idiomas. Best Paper Award @ Neurips ML Safety Workshop 2022.
Fábio Perez, Ian Ribeiro [PDF] [Project], 2022.11
Esta seção contém a melhoria dos métodos básicos de ajuste imediato, incluem, mas não limitados, ao uso de recursos adicionais para melhorar os desempenhos, compensando as deficiências do trabalho anterior ou a realização de ajustes imediatos de maneiras insuais.
Calibre antes do uso: Melhorando o desempenho de poucos modelos de idiomas. Pré -impressão.
Tony Z. Zhao, Eric Wallace, Shi Feng, Dan Klein, Sameer Singh. [PDF], [Project], 2021.2
Geração de texto com q-learning eficiente (suave). Pré -impressão.
Han Guo, Bowen Tan, Zhengzhong Liu, Eric P. Xing, Zhiting Hu. [PDF], 2021.6
Tuneamento rápido com conhecimento: incorporando o conhecimento no próximo verbalizador para classificação de texto. Pré -impressão.
Shengding Hu, Ning Ding, Huadong Wang, Zhiyuan Liu, Juanzi Li, Maosong Sun. [PDF], [Project], 2021.8
Modelo de linguagem de canal barulhento solicitando a classificação de texto de poucos anos. Pré -impressão.
Sewon Min, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer. [PDF], 2021.8
Adaptação de modelos de linguagem para aprendizado de tiro zero por meta-ajuste no conjunto de dados e coleção rápida.
Ruiqi Zhong, Kristy Lee* Zheng Zhang*, Dan Klein. [PDF], 2021.9
Revisitando o auto-treinamento para o aprendizado de poucos anos do modelo de linguagem. Pré -impressão.
Yiming Chen, Yan Zhang, Chen Zhang, Grandee Lee, Ran Cheng, Haizhou Li. [PDF], 2021.10
Lista: o auto-treinamento Lite faz com que os alunos com poucos tiros eficientes. Pré -impressão.
Yaqing Wang, Subhabrata Mukherjee, Xiaodong Liu, Jing Gao, Ahmed Hassan Awadallah, Jianfeng Gao. [PDF], 2021.10
Verbalizador prototípico para ajuste rápido de poucos tiro. ACL 2022.
Ganqu Cui, Shengding Hu, Ning Ding, Longtao Huang, Zhiyuan Liu . [PDF], [Project], 2022.3
BBTV2: A otimização pura de caixa preta pode ser comparável à descida de gradiente para aprendizado de poucos anos. Pré -impressão.
Tianxiang Sun, Zhengfu HE, Hong Qian, Xuanjing Huang, XIPENG QIU [PDF] [Project], 2022.5
Esta seção contém os métodos de aprendizado imediato projetados para várias tarefas de PNL.
Pensando em voz alta: a geração dinâmica de contexto melhora o desempenho do raciocínio zero do GPT-2. Pré -impressão.
Gregor Betz, Kyle Richardson, Christian Voigt. [PDF] 2021.3
GPT3MIX: Aproveitando modelos de idiomas em larga escala para aumento de texto. Pré -impressão.
Kang Min Yoo, Dongju Park, Jaewook Kang, Sang-woo Lee, Woomyeong Park. [PDF] 2021.4
Modelos de linguagem restritos produzem poucos passadores semânticos. Pré -impressão.
Richard Shin, Christopher H. Lin, Sam Thomson, Charles Chen, Subhro Roy, Emmanouil Antonios Platanios, Adam Pauls, Dan Klein, Jason Eisner, Benjamin van Durme. [PDF] 2021.4
Rotule a verbalização e o enraizamento para a extração efetiva de relação zero e de poucos tiros. EMNLP 2021.
Oscar Sainz, Oier Lopez de Lacalle, Gorka Labaka, Ander Barrena, Eneko Agirre. [PDF], 2021.4
Pada: Uma abordagem autorregressiva rápida para adaptação aos domínios invisíveis pré-impressão.
Eyal Ben-David, Nadav Oved, ROI Reichart. [PDF] [Projeto] 2021.5
Prompt-learning para digitação de entidade de grão fino. Pré -impressão.
Ning Ding, Yulin Chen, Xu Han, Guangwei Xu, Pengjun Xie, Hai-Tao Zheng, Zhiyuan Liu, Juanzi Li, Hong-Gee Kim [PDF], 2021.8
KnowPrompt: Tuneamento imediato com reconhecimento de conhecimento com otimização sinérgica para extração de relação. WWW 2022.
Xiang Chen, Xin Xie, Ningyu Zhang, Jiahuan Yan, Shumin Deng, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen. . [PDF], [Project], 2021.9
Explorando o aprendizado de poucos tiroas baseadas em uma geração de diálogo fundamentada. Pré -impressão.
Chujie Zheng, Minlie Huang. [PDF], 2021.9
Sentiprompt: O conhecimento do sentimento aprimorou o ajuste para análise de sentimentos baseados em aspectos. Pré -impressão.
Chengxi Li, Feiyu Gao, Jiajun BU, Lu Xu, Xiang Chen, Yu Gu, Zirui Shao, Qi Zheng, Ningyu Zhang, Yongpan Wang, Zhi Yu. [PDF] 2021.9
Ajuste rápido sem modelo para um pouco de pouquinho. Pré -impressão.
Ruotian ma*, xin zhou*, tao gui, tan yiding, qi zhang, xuanjing huang. [PDF], 2021.9
Aprendendo a solicitar modelos de linguagem de visão. Pré -impressão.
Kaiyang Zhou, Jingkang Yang, Chen mudam Loy e Ziwei Liu. [PDF], 2021.9
CPT: ajuste rápido colorido para modelos de linguagem de visão pré-treinados. Pré -impressão.
Yuan Yao*, Ao Zhang*, Zhengyan Zhang, Zhiyuan Liu, Tat-Seng Chua, Maosong Sun. [PDF], 2021.10
MSP: Moldura de vários estágios para tornar os modelos de idiomas pré-treinados melhores tradutores. Pré -impressão.
Zhixing Tan, Xiangwen Zhang, Shuo Wang, Yang Liu. [PDF], 2021.10
Few-shot Bot: Aprendizagem imediata para sistemas de diálogo. Pré -impressão.
Andrea Madotto, Zhaojiang Lin, Genta Indra Winata, Pascale Fung [PDF], 2021.10
Prefixos de controle para geração de texto. Pré -impressão.
Jordan Clive, Kris Cao, Marek Rei. [PDF], 2021.10
O poder do ajuste imediato para a análise semântica de baixo recurso. Pré -impressão.
Nathan Schucher, Shiva Reddy, Harm de Vries. [PDF], 2021.10
Um bom aviso vale milhões de parâmetros? Aprendizagem rápida baseada em baixo recurso para modelos de linguagem de visão.
Woojeong Jin, Yu Cheng, Yelong Shen, Weizhu Chen, Xiang Ren. [PDF]
Lightner: Uma estrutura generativa leve com atenção pronta para o NER de baixo recurso. Coling 2022.
Xiang Chen, Lei Li, Shumin Deng, Chuanqi Tan, Changliang Xu, Fei Huang, Luo Si, Huajun Chen, Ningyu Zhang. [PDF], [Project], 2021.8
Unifiedskg: UNIFICAÇÃO E MULTIMAS CONHECIMENTO CONHECIMENTO ESTRUTURADO COM MODELOS DE LÍNGUA TEXT-T-TEXTO.
Tianbao Xie*, Chen Henry Wu*, Peng Shi, Ruiqi Zhong, Torsten Scholak, Michihiro Yasunaga, Chien-Sheng Wu, Ming Zhong, Pengcheng Yin, Sida I. Wang, Victor Zhong, Bailin Wang, Chengzu Li, Connor Boyle, Ansong Ni, Ziyu Yao, Dragomir Radev, Caiming Xiong, Lingpeng Kong, Rui Zhang, Noah A. Smith, Luke Zettlemoyer, Tao Yu. [PDF], [Project], [Site], 2022.1
Tuneamento imediato aprimorado da ontologia para aprendizado de poucos tiros. WWW 2022.
Hongbin Ye, Ningyu Zhang, Shumin Deng, Xiang Chen, Hui Chen, Feiyu Xiong, Xi Chen, Huajun Chen. [PDF], 2022.1
Aprendendo a solicitar a aprendizagem contínua. CVPR 2022.
Zifeng Wang, Zizhao Zhang, Chen-Yu Lee, Han Zhang, Ruoxi Sun, Xiaoqi Ren, Guolong SU, Vincent Perot, Jennifer Dy, Tomas Pfister. [PDF], [Project], 2021.12
Extração de relação como Exame de Livro Aberto: Ajuste Prompt de Recuperação com Recuperação. Sigir 2022.
Xiang Chen, Lei Li, Ningyu Zhang, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen. [PDF], [Project], 2022.5
Boa orientação visual torna um extrator melhor: prefixo visual hierárquico para entidade multimodal e extração de relação. Achados de NAACL 2022.
Xiang Chen, Ningyu Zhang, Lei Li, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen. [PDF], [Project], 2022.5
A cadeia de pensamento provocando provas o raciocínio em grandes modelos de idiomas. Pré -impressão 2022.
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed Chi, Quoc Le, Denny Zhou. [PDF]
A autoconsistência melhora o raciocínio da cadeia de pensamentos nos modelos de idiomas. Pré -impressão 2022.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou. [PDF]
Modelos de idiomas grandes são motivos de tiro zero. Pré -impressão 2022.
Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa. [PDF]
O pedido menos ao máximo permite o raciocínio complexo em grandes modelos de linguagem. Pré -impressão 2022.
Denny Zhou, Nathanael Schärli, Le Hou, Jason Wei, Nathan Scales, Xuezhi Wang, Dale Schuurmans, Olivier Bousquet, Quoc Le, Ed Chi. [PDF]
Promotamento Maiêutico: Raciocínio logicamente consistente com explicações recursivas. Pré -impressão 2022.
Jaehun Jung, Lianhui Qin, Sean Welkeck, Faeze Brahman, Chandra Bhagavatula, Ronan Le Bras, Yejin Choi [PDF]
No avanço de tornar os modelos de idiomas melhores raciocínio. Pré -impressão 2022.
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weizhu Chen [PDF]
Aprendendo a compor instruções suaves para o aprendizado de tiro zero composicional. Pré -impressão 2022.
Nihal V. Nayak*, Peilin Yu*, Stephen H. Bach [PDF], [Projeto]
Desaparelar o conhecimento da memorização: aprendizado imediato de recuperação de recuperação. Neurips 2022.
Xiang Chen, Lei Li, Ningyu Zhang, Xiaozhuan Liang, Shumin Deng, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen. [PDF], [Project], 2022.5
Explorando generalização de comprimento em grandes modelos de idiomas. Pré -impressão 2022.
Cem Anil, Yuhuai Wu, Anders Andreassen, Aitor Lewkowycz, Vedant Misra, Vinay Ramasesh, Ambrose Slone, Guy Gur-Ari, Ethan Dyer, Behnam Neyshabur [PDF]
Pergunte -me qualquer coisa: uma estratégia simples para solicitar modelos de linguagem. Pré -impressão 2022.
Simran Arora, Avanika Narayan, Mayee F. Chen, Laurel Orr, Neel Guha, Kush Bhatia, Ines Chami, Frederic Sala, Christopher Ré [PDF]
Medindo e estreitando a lacuna de composicionalidade nos modelos de idiomas pré -impressão 2022.
Ofir Press, Muru Zhang, Sewon Min, Ludwig Schmidt, Noah A. Smith, Mike Lewis [PDF]
RLPROMPT: Otimizando solicitações de texto discreto com o aprendizado de reforço pré -impressão 2022.
Mingkai Deng, Jianyu Wang, Cheng-Ping Hsieh, Yihan Wang, Han Guo, Tianmin Shu, Meng Song, Eric P. Xing, Zhiting Hu [PDF]
Raciocínio com o Modelo de Idioma Promoting: Uma pesquisa pré -impressão 2022.
Shuofei Qiao, Yixin Ou, Ningyu Zhang, Xiang Chen, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Huajun Chen [PDF]
Agradecemos a Yujia Qin, Xiachong Feng, Chenglei Si, Tianbao Xie, Muhtasham Oblokulov pela recomendação do artigo.
Não se preocupe se você colocar tudo isso errado, nós os corrigiremos para você. Basta contribuir e promover seu trabalho incrível aqui!
Se você recomendou um trabalho que não fosse seu, será adicionado à lista de colaboradores (não deixe de fornecer suas informações em outros colaboradores).