O raciocínio, como uma capacidade essencial para uma solução complexa de problemas, pode fornecer suporte de back-end para várias aplicações do mundo real, como diagnóstico médico, negociação etc. Este artigo fornece uma pesquisa abrangente sobre pesquisas de ponta sobre raciocínio com o Modelo de Linguagem Promoting. Introduzimos trabalhos de pesquisa com comparações e resumos e fornecemos recursos sistemáticos para ajudar iniciantes. Também discutimos as possíveis razões para emergir tais habilidades de raciocínio e destacar as instruções futuras de pesquisa.
Raciocínio com o Modelo de Idioma Promoting: Uma Pesquisa.
Shuofei Qiao, Yixin Ou, Ningyu Zhang, Xiang Chen, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Huajun Chen. [ABS], 2022.12
Rumo ao raciocínio em grandes modelos de idiomas: uma pesquisa.
Jie Huang, Kevin Chen-Chuan Chang. [ABS], 2022.12
Uma pesquisa com aprendizado profundo para o raciocínio matemático.
Pan Lu, Liang Qiu, Wenhao Yu, Sean Welkeck, Kai-Wei Chang. [ABS], 2022.12
Uma pesquisa para aprendizado no contexto.
Qingxiu Dong, Lei Li, Damai Dai, Ce Zheng, Zhiyong Wu, Baobao Chang, Xu Sun, Jingjing Xu, Lei Li, Zhifang Sui. [ABS], 2022.12
Raciocínio neural aprimorado pelo conhecimento: uma revisão.
Tanmoy Chowdhury, Chen Ling, Xuchao Zhang, Xujiang Zhao, Guangji Bai, Jian Pei, Haifeng Chen, Liang Zhao. [ABS], 2023.2
Modelos de idiomas aumentados: uma pesquisa.
Grégoire Mialon, Roberto Dessì, Maria Lomeli, Christoforos Nalmpantis, Ram Pasunuru, Roberta Raileanu, Baptiste Rozière, Timo Schick, Jane Dwivedi-Yu, Asli Celikyilmaz, Edouard Grave, Yann Leclun, Thomas Scial. [ABS], 2023.2
O ciclo de vida do conhecimento em grandes modelos de idiomas: uma pesquisa.
Boxi Cao, Hongyu Lin, Xianpei Han, Le Sun. [ABS], 2023.3
É rápido tudo o que você precisa? Não. Uma visão abrangente e mais ampla do aprendizado de instrução.
Renze Lou, Kai Zhang, Wenpeng Yin. [ABS], 2023.3
Raciocínio lógico sobre a linguagem natural como representação do conhecimento: uma pesquisa.
Zonglin Yang, Xinya du, Rui Mao, Jinjie Ni, Erik Cambria. [ABS], 2023.3
Raciocínio da linguagem da natureza, uma pesquisa.
Fei Yu, Hongbo Zhang, Benyou Wang. [ABS], 2023.3
Uma pesquisa de grandes modelos de idiomas.
Wayne Xin Zhao, Kun Zhou, Junyi Li, Tianyi Tang, Xiaolei Wang, Yupeng Hou, Yingqian Min, Beichen Zhang, Junjie Zhang, Zican Dong, Yifan Du, Chen Yang, Yushuo Chen, Zhipeng Chen, Jinhao Jiang, Ruiyang Ren, Yifan Li, Xinyu Tang, Zikang Liu, Peiyu Liu, Jian-Yun Nie, Ji-Rong Wen. [ABS], 2023.3
Aprendizagem de ferramentas com modelos de fundação.
Yujia Qin, Shengding Hu, Yankai Lin, Weize Chen, Ning Ding, Ganqu Cui, Zheni Zeng, Yufei Huang, Chaojun Xiao, Chi Han, Yi Ren Fung, Yusheng Su, Huadong Wang, Cheng Qian, Runchu Tian, Kunlun Zhu, Shihao Liang, Xingyu Shen, Bokai Xu, Zhen Zhang, Yining Ye, Bowen Li, Ziwei Tang, Jing Yi, Yuzhang Zhu, Zhenning Dai, Lan Yan, Xin Cong, Yaxi Lu, Weilin Zhao, Yuxiang Huang, Junxi Yan, Xu Han, Xian Sun, Dahai Li, Jason Phang, Cheng Yang, Tongshuang Wu, Heng Ji, Zhiyuan Liu, Maosong Sun. [ABS], 2023.4
Uma pesquisa da cadeia de raciocínio de pensamento: avanços, fronteiras e futuro.
Zheng Chu, Jingchang Chen, Qianglong Chen, Weijiang Yu, Tao He, Haotian Wang, Weihua Peng, Ming Liu, Bing Qin, Ting Liu. [ABS], 2023.9
Uma pesquisa sobre o raciocínio com modelos de fundação: conceitos, metodologias e perspectivas.
Jiankai Sun, Chuanyang Zheng, Enze Xie, Zhengying Liu, Ruihang Chu, Jianing Qiu, Jiaqi Xu, Mingyu Ding, Hongyang Li, Mengzhe Geng, Yue Wu, Wehai Wang, Junnsong Chen, Zhangyeehuehueh, Xia, Wuhai, Junnsong Chen, Zhangyuehuehuehueh, Xia, Wehai, Junnsong Chen, Zhangyuehueh, Qi Liu, Xihui Liu, Yu Li, Hao Dong, Yu Cheng, Ming Zhang, Pheng Ann Heng, Jifeng Dai, Ping Luo, Jingdong Wang, Ji-Rong Wen, Xipeng Qiu, Yike Guo, Hui Xiong, Qun Liu, Zhguo Li. [ABS], 2023.12
Solicitando explicações contrastantes para tarefas de raciocínio de senso comum.
Bhargavi Paranjape, Julian Michael, Marjan Ghazvininejad, Luke Zettlemoyer, Hannaneh Hajishirzi. [ABS], 2021.6
Preenchimento de modelos para raciocínio controlável de senso comum.
Dheeraj Rajagopal, Vivek Khetan, Bogdan Sacaleanu, Anatole Gershman, Andrew Fano, Eduard Hovy. [ABS], 2021.11
A cadeia de pensamento provocando provas o raciocínio em grandes modelos de idiomas.
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed H. Chi, Quoc V. Le, Denny Zhou. [ABS], 2022.1
Modelos de idiomas grandes são motivos de tiro zero.
Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa. [ABS], 2022.5
Pronhos de cadeia de pensamento informados psicologicamente para a compreensão da metáfora em grandes modelos de idiomas.
Ben Prystawski, Paul Thibodeau, Noah Goodman. [ABS], 2022.9
Promotamento baseado em complexidade para o raciocínio de várias etapas.
Yao Fu, Hao Peng, Ashish Sabharwal, Peter Clark, Tushar Khot. [ABS], 2022.10
Modelos de idiomas são raciocínio multilíngue da cadeia de pensamentos.
Freda Shi, Mirac Suzgun, Markus Freitag, Xuezhi Wang, Suraj Srivats, Soroush Vosoughi, Hyung Won Chung, Yi Tay, Sebastian Ruder, Denny Zhou, Dipanjan Das, Jason Wei. [ABS], 2022.10
Cadeia de pensamento automática solicitando grandes modelos de linguagem.
Zhuosheng Zhang, Aston Zhang, Mu Li, Alex Smola. [ABS], 2022.10
Modelos de idiomas grandes são poucos (1)-shot tabela dos motivos.
Wenhu Chen. [ABS], 2022.10
Ensinar o raciocínio algorítmico por meio de aprendizado no contexto.
Hattie Zhou, Azade Nova, Hugo Larochelle, Aaron Courville, Behnam Neyshabur, Hanie Sedghi. [ABS], 2022.11
Solicitação ativa com cadeia de pensamento para grandes modelos de idiomas.
Shizhe Diao, Pengcheng Wang, Yong Lin, Tong Zhang. [ABS], 2023.2
Aumentação imediata automática e seleção com a cadeia de pensamento a partir de dados rotulados.
Kashun Shum, Shizhe Diao, Tong Zhang. [ABS], 2023.2
Um catálogo de padrões imediatos para aprimorar a engenharia imediata com o ChatGPT.
Jules White, Quchen Fu, Sam Hays, Michael Sandborn, Carlos Olea, Henry Gilbert, Ashraf Elnashar, Jesse Spencer-Smith, Douglas C Schmidt. [ABS], 2023.2
Chatgpt Padrões Prompt para melhorar a qualidade do código, refatorar, elicitar requisitos, anlearning para raciocinar e memorizar com o design de software auto-notado.
Jules White, Sam Hays, Quchen Fu, Jesse Spencer-Smith, Douglas C Schmidt. [ABS], 2023.3
Aprendendo a raciocinar e memorizar com auto-notas.
Jack Lanchantin, Shubham Toshniwal, Jason Weston, Arthur Szlam, Sainbayar Sukhbaatar. [ABS], 2023.5
Plano e solução Promotamento: Melhorando o raciocínio da cadeia de pensamento zero por grandes modelos de idiomas.
Lei Wang, Wanyu Xu, Yihuai Lan, Zhiqiang Hu, Yunshi Lan, Roy Ka-Wei Lee, Ee-Peng Lim. [ABS], 2023.5
Além da cadeia de pensamento, o raciocínio eficaz do gráfico de pensamentos em grandes modelos de idiomas.
Yao Yao, Zuchao Li, Hai Zhao. [ABS], 2023.5
A reler melhora o raciocínio nos modelos de idiomas.
Xiaohan Xu, Chongyang Tao, Tao Shen, Can Xu, Hongbo Xu, Guodong Long, Jian-Guang Lou. [ABS], 2023.9
Avaliação rápida dependente da consulta com RL inversa offline.
Hao Sun, Alihan Huyuk, Mihaela van der Schaar. [ABS], 2023.9
Solicita iterativamente modelos de linguagem pré-treinados para a cadeia de pensamento.
Boshi Wang, Xiang Deng, Huan Sun. [ABS], 2022.3
Inferência de seleção: explorando grandes modelos de linguagem para o raciocínio lógico interpretável.
Antonia Creswell, Murray Shanahan, Irina Higgins. [ABS], 2022.5
O pedido menos ao máximo permite o raciocínio complexo em grandes modelos de linguagem.
Denny Zhou, Nathanael Schärli, Le Hou, Jason Wei, Nathan Scales, Xuezhi Wang, Dale Schuurmans, Olivier Bousquet, Quoc Le, Ed Chi. [ABS], 2022.5
Promotamento Maiêutico: Raciocínio logicamente consistente com explicações recursivas.
Jaehun Jung, Lianhui Qin, Sean Welkeck, Faeze Brahman, Chandra Bhagavatula, Ronan Le Bras, Yejin Choi. [ABS], 2022.5
Raciocínio fiel usando grandes modelos de linguagem.
Antonia Creswell, Murray Shanahan. [ABS], 2022.8
A análise semântica de composição com grandes modelos de linguagem.
Andrew Drozdov, Nathanael Schärli, Ekin Akyürek, Nathan Scales, Xinying Song, Xinyun Chen, Olivier Bousquet, Denny Zhou. [ABS], 2022.9
Promotamento decomposto: uma abordagem modular para resolver tarefas complexas.
Tushar Khot, Harsh Trivedi, Matthew Finlayson, Yao Fu, Kyle Richardson, Peter Clark, Ashish Sabharwal. [ABS], 2022.10
Medindo e estreitando a lacuna de composicionalidade nos modelos de linguagem.
Ofir Press, Muru Zhang, Sewon Min, Ludwig Schmidt, Noah A. Smith, Mike Lewis. [ABS], 2022.10
Solicitação sucessiva de decompor questões complexas.
Dheeru Dua, Shivanshu Gupta, Sameer Singh, Matt Gardner. [ABS], 2022.12
O impacto das representações simbólicas no aprendizado no contexto para o raciocínio de poucos anos.
Hanlin Zhang, Yi-Fan Zhang, Li Erran Li, Eric Xing. [ABS], 2022.12
Lambada: encadeamento para trás para raciocínio automatizado em linguagem natural.
Seyed Mehran Kazemi, Najoung Kim, Deepti Bhatia, Xin Xu, Deepak Ramachandran. [ABS], 2022.12
Decomposição iterada: melhorando as perguntas e respostas da ciência supervisionando os processos de raciocínio.
Justin Reppert, Ben Rachbach, Charlie George, Luke Stebbing, Jungwon Byun, Maggie Appleton e Andreas Stuhlmüller. [ABS], 2023.1
Auto-política: aprimore o raciocínio em grandes modelos de linguagem por meio de refinamento do problema.
Zhiheng Xi, Senjie Jin, Yuhao Zhou, Rui Zheng, Songyang Gao, Tao Gui, Qi Zhang, Xuanjing Huang. [ABS], 2023.5
Realizando a colaboração humana-AI para gerar explicações de texto livre.
Sarah Wiegreffe, Jack Hessel, Swabha Swayamdipta, Mark Riedl, Yejin Choi. [ABS], 2021.12
A falta de confiabilidade das explicações na aprendizagem de poucas fotos no contexto.
XI YE, Greg Durrett. [ABS], 2022.5
Raciocínio múltiplo guiado por discriminador com modelos de idiomas.
Muhammad Khalifa, Lajanugen Logeswaran, Moontae Lee, Honglak Lee, Lu Wang. [ABS], 2023.5
RCOT: Detectar e retificar a inconsistência factual no raciocínio, revertendo a cadeia de pensamento.
Tianci Xue, Ziqi Wang, Zhenhailong Wang, Chi Han, Pengfei Yu, Heng Ji. [ABS], 2023.5
A autoconsistência melhora o raciocínio da cadeia de pensamentos nos modelos de idiomas.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed H. Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou. [ABS], 2022.3
No avanço de tornar os modelos de idiomas melhores raciocínio.
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weizhu Chen. [ABS], 2022.6
Promotamento baseado em complexidade para o raciocínio de várias etapas.
Yao Fu, Hao Peng, Ashish Sabharwal, Peter Clark, Tushar Khot. [ABS], 2022.10
Modelos de idiomas grandes são motivadores com auto-verificação.
Yixuan Weng, Minjun Zhu, Shizhu He, Kang Liu, Jun Zhao. [ABS], 2022.12
Respondendo a perguntas por meta-risco sobre várias cadeias de pensamento.
Ori Yoran, Tomer Wolfson, Ben Bogin, Uri Katz, Daniel Deutch, Jonathan Berant. [ABS], 2023.4
Árvore dos pensamentos: resolução deliberada de problemas com grandes modelos de linguagem.
Shunyu Yao, Dian Yu, Jeffrey Zhao, Izhak Shafran, Thomas L. Griffiths, Yuan Cao, Karthik Narasimhan. [ABS], 2023.5
Melhorando a factualidade e o raciocínio em modelos de idiomas por meio de um debate multiagente.
Yilun Du, Shuang Li, Antonio Torralba, Joshua B. Tenenbaum, Igor Mordatch. [ABS], 2023.5
Automix: Mistura automaticamente modelos de linguagem
Aman Madaan, Pranjal Aggarwal, Ankit Anand, Srividya Pranavi Potharaju, Swaroop Mishra, Pei Zhou, Aditya Gupta, Dheeraj Rajagopal, Karthik Kappaganthu, Yiming Yang, Shyam Upadhyay, Mausam, Manaal Faruqui. [ABS], 2023.9
Reversão do pensamento: Melhorando modelos de linguagem grandes com aquecimento reverso guiado por preferência.
Jiahao Yuan, Dehui DU, Hao Zhang, Zixiang DI, Usman Naseem. [ABS], [código], 2024.10
Estrela: Raciocínio de Bootstrapping com raciocínio.
Eric Zelikman, Yuhuai Wu, Noah D. Goodman. [ABS], 2022.3
Modelos de idiomas grandes podem se auto-melhorar.
Jiaxin Huang, Shixiang Shane Gu, Le Hou, Yuexin Wu, Xuezhi Wang, Hongkun Yu, Jiawei Han. [ABS], 2022.10
Reflexão: um agente autônomo com memória dinâmica e auto-reflexão.
Noah Shinn, Beck Labash, Ashwin Gopinath. [ABS], 2023.3
Auto-refinado: refinamento iterativo com auto-feedback.
Aman Madaan, Niket Tandon, Prakhar Gupta, Skyler Hallinan, Luyu Gao, Sarah Wiegreffe, Uri Alon, Nouha Dziri, Shrimai Prabhumoye, Yiming Yang, Sean Welleck, Bodhisattwa Prasad Majumder, Shashank Gupta, Amir Yazdanbakhsh, Peter Clark. [ABS], 2023.3
Refiner: Raciocínio feedback sobre representações intermediárias.
Debjit Paul, Mete Ismayilzada, Maxime Peyrard, Beatriz Borges, Antoine Bosselut, Robert West, Boi Faltings. [ABS], 2023.4
O raciocínio com o modelo de idioma é planejar o modelo mundial
Shibo Hao*, Yi Gu*, Haodi MA, Joshua Jiahua Hong, Zhen Wang, Daisy Zhe Wang, Zhiting Hu [Abs], 2023.5
Melhorando o raciocínio da cadeia de pensamento zero em modelos de idiomas grandes através da lógica.
Xufeng Zhao, Mengdi Li, Wenhao Lu, Cornelius Weber, Jae Hee Lee, Kun Chu, Stefan Wermter. [ABS] [Código], 2024.2
Olhos da mente: o raciocínio do modelo de linguagem fundamentado por meio da simulação.
Ruibo Liu, Jason Wei, Shixiang Shane Gu, Te-Yen Wu, Soroush Vosoughi, Claire Cui, Denny Zhou, Andrew M. Dai . [ABS], 2022.10
Os modelos de idiomas de código são poucos alunos do senso comum.
Aman Madaan, Shuyan Zhou, Uri Alon, Yiming Yang, Graham Neubig. [ABS], 2022.10
PAL: Modelos de idiomas auxiliados pelo programa.
Luyu Gao, Aman Madaan, Shuyan Zhou, Uri Alon, Pengfei Liu, Yiming Yang, Jamie Callan, Graham Neubig. [ABS], 2022.11
Programa de pensamentos solicitando: Deixe a computação do raciocínio para tarefas de raciocínio numérico.
Wenhu Chen, Xueguang MA, Xinyi Wang, William W. Cohen. [ABS], 2022.11
Raciocínio fiel da cadeia de pensamento.
Qing Lyu, Shreya Havaldar, Adam Stein, Li Zhang, Delip Rao, Eric Wong, Marianna Apidianaki, Chris Callison-Burch. [ABS], 2023.1
Modelos de idiomas grandes são decompositores versáteis: decompõe evidências e perguntas para o raciocínio baseado em mesa.
Yunhu Ye, Binyuan Hui, Min Yang, Binhua Li, Fei Huang, Yongbin Li. [ABS], 2023.1
Promotamento sintético: gerando demonstrações de cadeia de pensamentos para grandes modelos de idiomas.
Zhihong Shao, Yeyun Gong, Yelong Shen, Minlie Huang, Nan Duan, Weizhu Chen. [ABS], 2023.2
Mathprompter: raciocínio matemático usando grandes modelos de idiomas.
Shima Imani, Liang DU, Shrivastava dura. [ABS], 2023.3
Seleção automática de modelos com grandes modelos de linguagem para raciocínio.
Xu Zhao, Yuxi Xie, Kenji Kawaguchi, Junxian He, Qizhe Xie. [ABS], 2023.5
Código Promotamento: Um método simbólico neural para raciocínio complexo em grandes modelos de idiomas.
Yi Hu, Haotong Yang, Zhouchen Lin, Muhan Zhang. [ABS], 2023.5
A magia do IF: Investigando habilidades de raciocínio causal em grandes modelos de idiomas de código.
Xiao Liu, Da Yin, Chen Zhang, Yansong Feng, Dongyan Zhao. [ABS], 2023.5
Zhen Bi, Ningyu Zhang, Yinuo Jiang, Shumin Deng, Guozhou Zheng, Huajun Chen. [ABS], 2023.12
FORMURADOR: Os modelos de idiomas podem se ensinar a usar ferramentas.
Timo Schick, Jane Dwivedi-Yu, Roberto Dessì, Roberta Raileanu, Maria Lomeli, Luke Zettlemoyer, Nicola Canccedda, Thomas Scialom. [ABS], 2023.2
ART: Raciocínio e uso automático de várias etapas para modelos de idiomas grandes.
Bhargavi Paranjape, Scott Lundberg, Sameer Singh, Hannaneh Hajishirzi, Luke Zettlemoyer, Marco Tulio Ribeiro. [ABS], 2023.3
Chameleon: Raciocínio composicional plug-and-play com grandes modelos de idiomas.
Pan Lu, Baolin Peng, Hao Cheng, Michel Galley, Kai-Wei Chang, Ying Nian Wu, Song-Chun Zhu, Jianfeng Gao. [ABS], 2023.4
CRÍTICO: Os grandes modelos de idiomas podem se auto-corrigir com a crítica interativa da ferramenta.
Zhibin Gou, Zhihong Shao, Yeyun Gong, Yelong Shen, Yujiu Yang, Nan Duan, Weizhu Chen. [ABS], 2023.5
Fazendo modelos de idiomas melhores alunos de ferramentas com feedback de execução.
Shuofei Qiao, Honghao Gui, Huajun Chen, Ningyu Zhang. [ABS], 2023.5
Criador: Destangendo raciocínio abstrato e concreto de grandes modelos de linguagem através da criação de ferramentas.
Cheng Qian, Chi Han, Yi R. Fung, Yujia Qin, Zhiyuan Liu, Heng Ji. [ABS], 2023.5
Chatcot: Raciocínio da cadeia de pensamento com ferramentas com ferramentas em grandes modelos de idiomas baseados em bate-papo.
Zhipeng Chen, Kun Zhou, Beichen Zhang, Zheng Gong, Wayne Xin Zhao, Ji-Rong Wen. [ABS], 2023.5
Multitool-Cot: o GPT-3 pode usar várias ferramentas externas com a cadeia de pensamento.
Tatsuro Inaba, Hirokazu Kiyomaru, Fei Cheng, Sadao Kurohashi. [ABS], 2023.5
Toolkengpt: Aumentando modelos de idiomas congelados com ferramentas enormes via ferramenta incorporadas
Shibo Hao, Tianyang Liu, Zhen Wang, Zhiting Hu [Abs], 2023.5
Gerou conhecimento solicitando o raciocínio de senso comum.
Jiacheng Liu, Alisa Liu, Ximing Lu, Sean Welkeck, Peter West, Ronan Le Bras, Yejin Choi, Hannaneh Hajishirzi. [ABS], 2021.10
Rainier: Intróstero de conhecimento reforçado para resposta ao senso comum.
Jiacheng Liu, Skyler Hallinan, Ximing Lu, Pengfei He, Sean Welkeck, Hannaneh Hajishirzi, Yejin Choi. [ABS], 2022.10
Explicações de grandes modelos de idiomas tornam os pequenos motivos melhores.
Shiyang Li, Jianshu Chen, Yelong Shen, Zhiyu Chen, Xinlu Zhang, Zekun Li, Hong Wang, Jing Qian, Baolin Peng, Yi Mao, Wenhu Chen, Xifeng Yan. [ABS], 2022.10
Pinto: raciocínio fiel da linguagem usando justificativas geradas.
Peifeng Wang, Aaron Chan, Filip Ilievski, Muhao Chen, Xiang Ren. [ABS], 2022.11
TSGP: Promotamento generativo de dois estágios para respostas de perguntas sem sentido não supervisionado.
Yueqing Sun, Yu Zhang, Le Qi, Qi Shi. [ABS], 2022.11
Destilando recursos de raciocínio de várias etapas de modelos de linguagem grandes em modelos menores por meio de decomposições semânticas.
Kumar Shridhar, Alessandro Stolfo, Mrinmaya Sachan. [ABS], 2022.12
Ensinar pequenos modelos de idiomas à razão.
Lucie Charlotte Magister, Jonathan Mallinson, Jakub Adamek, Eric Malmi, Aliaksei Severyn. [ABS], 2022.12
Modelos de idiomas grandes são professores de raciocínio.
Namgyu Ho, Laura Schmid, Se-Young Yun. [ABS], 2022.12
Especializando modelos de linguagem menores para o raciocínio de várias etapas.
Yao Fu, Hao Peng, Litu Ou, Ashish Sabharwal, Tushar Khot. [ABS], 2023.1
PAD: A destilação auxiliada ao programa especializa grandes modelos no raciocínio.
Xuekai Zhu, Biqing Qi, Kaiyan Zhang, Xingwei Long, Bowen Zhou. [ABS], 2023.5
MEMPROMPT: Edição rápida assistida pela memória para melhorar o GPT-3 após a implantação
Aman Madaan, Niket Tandon, Peter Clark, Yiming Yang. [ABS], 2022.1
Logicsolver: Para resolver problemas interpretáveis de palavras matemáticas com aprendizado com rapidez lógica.
Zhicheng Yang, Jinghui Qin, Jiaqi Chen, Liang Lin, Xiaodan Liang. [ABS], 2022.5
A anotação seletiva torna os modelos de idiomas melhores alunos de poucos anos.
Hongjin Su, Jungo Kasai, Chen Henry Wu, Weijia Shi, Tianlu Wang, Jiayi Xin, Rui Zhang, Mari Ostendorf, Luke Zettlemoyer, Noah A. Smith, Tao Yu. [ABS], 2022.9
Aprendizado imediato dinâmico por meio de gradiente de políticas para o raciocínio matemático semiestruturado.
Pan Lu, Liang Qiu, Kai-Wei Chang, Ying Nian Wu, Song-Chun Zhu, Tanmay Rajpurohit, Peter Clark, Ashwin Kalyan. [ABS], 2022.9
Recuperação de intercalação com o raciocínio da cadeia de pensamentos para perguntas de várias etapas intensivas em conhecimento.
Harsh Trivedi, Niranjan Balasubramanian, Tushar Khot, Ashish Sabharwal. [ABS], 2022.12
Repensando com recuperação: fiel grande inferência do modelo de linguagem.
Hangfeng ele, Hongming Zhang, Dan Roth. [ABS], 2023.1
Verifique e edit: uma estrutura de cadeia de pensamento aprimorada pelo conhecimento.
Ruochen Zhao, Xingxuan Li, Shafiq Joty, Chengwei Qin, Lidong Bing. [ABS], 2023.5
Modelo de idioma Cascades.
David Dohan, Winnie Xu, Aitor Lewkowycz, Jacob Austin, David Bieber, Raphael Gontijo Lopes, Yuhuai Wu, Henryk Michalewski, Rif A. Saurous, Jascha Sohl-Dickstein, Kevin Murphy, Charles Sutton . [ABS], 2022.7
Aprenda a explicar: raciocínio multimodal por meio de correntes de pensamento para respostas de perguntas científicas.
Pan Lu, Swaroop Mishra, Tony Xia, Liang Qiu, Kai-Wei Chang, Song-Chun Zhu, Oyvind Tafjord, Peter Clark, Ashwin Kalyan. [ABS], 2022.9
Raciocínio analógico multimodal sobre gráficos de conhecimento.
Ningyu Zhang, Lei Li, Xiang Chen, Xiaozhuan Liang, Shumin Deng, Huajun Chen. [ABS], 2022.10
Modelos de linguagem de instrução de instrução de escala.
Hyung Won Chung, Le Hou, Shayne Longpre, Barret Zoph, Yi Tay, William Fedus, Yunxuan Li, Xuezhi Wang, Mostafa Dehghani, Siddhartha Brahma, Albert Webson, Shixiang Shane Gu, Zhuyun Dai, Mirac Suzgun, Xinyun Chen, Aakanksha Chowdhery, Alex Castro-Ros, Marie Pellat, Kevin Robinson, Dasha Valter, Sharan Narang, Gaurav Mishra, Adams Yu, Vincent Zhao, Yanping Huang, Andrew Dai, Hongkun Yu, Slav Petrov, Ed H. Chi, Jeff Dean, Jacob Devlin, Adam Roberts, Denny Zhou, Quoc V. Le, Jason Wei. [ABS], 2022.10
Veja, pense, confirme: solicitação interativa entre os modelos de visão e idiomas para o raciocínio visual baseado no conhecimento.
Zhenfang Chen, Qinhong Zhou, Yikang Shen, Yining Hong, Hao Zhang, Chuang Gan. [ABS], 2023.1
Raciocínio de cadeia multimodal em modelos de idiomas.
Zhuosheng Zhang, Aston Zhang, Mu Li, Hai Zhao, George Karypis, Alex Smola. [ABS], 2023.2
O idioma não é tudo o que você precisa: alinhar a percepção com os modelos de idiomas.
Shaohan Huang, Li Dong, Wenhui Wang, Yaru Hao, Saksham Singhal, Shuming Ma, Tengchao Lv, Lei Cui, Owais Khan Mohammed, Qiang Liu, Kriti Aggarwal, Zewen Chi, Johan Bjorck, Vishrav Chaudhary, Subhojit Som, Xia Song, Furu Wei. [ABS], 2023.2
Visual Chatgpt: conversando, desenhando e editando com modelos visuais de fundação.
Chenfei Wu, Shengming Yin, Weizhen Qi, Xiaodong Wang, Zecheng Tang, Nan Duan. [ABS], 2023.3
Vipergpt: Inferência visual via execução do Python para raciocínio.
Dícac Surís, Sachit Menon, Carl Vondrick. [ABS], 2023.3
MM-REACT: solicitando chatgpt para raciocínio e ação multimodais.
Zhengyuan Yang, Linjie Li, Jianfeng Wang, Kevin Lin, Ehsan Azarnasab, Faisal Ahmed, Zicheng Liu, Ce Liu, Michael Zeng, Lijuan Wang. [ABS], 2023.3
Aumentar o desempenho da teoria da mente em grandes modelos de idiomas por meio de promoção.
Shima Rahimi Moghaddam, Christopher J. Honey. [ABS], 2023.4
Os modelos de idiomas podem aprender com as explicações no contexto?
Andrew K. Lampinen, Ishita Dasgupta, Stephanie Cy Chan, Kory Matthewson, Michael Henry Tessler, Antonia Creswell, James L. McClelland, Jane X. Wang, Felix Hill. [ABS], 2022.4
Habilidades emergentes de grandes modelos de linguagem.
Jason Wei, Yi Tay, Rishi Bommasani, Colin Raffel, Barret Zoph, Sebastian Borgeaud, Dani Yogatama, Maarten Bosma, Denny Zhou, Donald Metzler, Ed H. Chi, Tatsunori Hashimoto, Oriol Vinyals, Percy Liang, Jeff Dean, William Fedus. [ABS], 2022.6
Os modelos de idiomas mostram efeitos de conteúdo humano no raciocínio.
Ishita Dasgupta, Andrew K. Lampinen, Stephanie Cy Chan, Antonia Creswell, Dharshan Kumaran, James L. McClelland, Felix Hill. [ABS], 2022.7
Justificados em agitação em modelos de idiomas.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Denny Zhou. [ABS], 2022.7
Os grandes modelos de linguagem podem realmente entender os avisos? Um estudo de caso com avisos negados.
Joel Jang, Seongheyon Ye, Minjoon Seo. [ABS], 2022.9
Texto e padrões: Para uma cadeia de pensamento eficaz, é preciso dois para o tango
Aman Madaan, Amir Yazdanbakhsh. [ABS], 2022.9
Desafiar tarefas de grande parte e se a cadeia de pensamento pode resolvê-las.
Mirac Suzgun, Nathan Scales, Nathanael Schärli, Sebastian Gehrmann, Yi Tay, Hyung Won Chung, Aakanksha Chowdhery, Quoc V. Le, Ed H. Chi, Denny Zhou, Jason Wei. [ABS], 2022.10
Modelos de idiomas são raciocínio ganancioso: uma análise formal sistemática da cadeia de pensamentos.
Abulhair Saparov, ele. [ABS], 2022.10
Conhecimento desaprendendo para mitigar riscos de privacidade em modelos de idiomas.
Joel Jang, Dongkeun Yoon, Sohee Yang, Sungmin Cha, Moontae Lee, Lajanugen Logeswaran, Minjoon Seo. [ABS], 2022.10
Raciocínio analógico emergente em grandes modelos de linguagem.
Taylor Webb, Keith J. Holyoak, Hongjing Lu. [ABS], 2022.12
Para entender a solicitação da cadeia de pensamentos: um estudo empírico do que importa.
Boshi Wang, Sewon Min, Xiang Deng, Jiaming Shen, You Wu, Luke Zettlemoyer, Huan Sun. [ABS], 2022.12
Pensando segundo, não vamos pensar passo a passo! Viés e toxicidade no raciocínio zero.
Omar Shaikh, Hongxin Zhang, William Held, Michael Bernstein, Diyi Yang. [ABS], 2022.12
Os modelos de idiomas de recuperação de retriever podem raciocinar? O jogo da culpa entre o Retriever e o modelo de idioma.
Parishad Behnamghader, Santiago Miret, Shiva Reddy. [ABS], 2022.12
Por que o GPT pode aprender no contexto? Os modelos de idiomas realizam secretamente a ascendência de gradiente como meta-otimizadores.
Damai Dai, Yutao Sun, Li Dong, Yaru Hao, Zhifang Sui, Furu Wei. [ABS], 2022.12
Dissociando linguagem e pensamento em grandes modelos de linguagem: uma perspectiva cognitiva.
Kyle Mahowald, Anna A. Ivanova, Idan A. Blank, Nancy Kanwisher, Joshua B. Tenenbaum, Evelina Fedorenko. [ABS], 2023.1
Modelos de linguagem grandes podem ser facilmente distraídos por um contexto irrelevante.
Freda Shi, Xinyun Chen, Kanishka Misra, Nathan Scales, David Dohan, Ed Chi, Nathanael Schärli, Denny Zhou. [ABS], 2023.2
Uma avaliação multitarefa multitarfica, multilíngue e multimodal do ChatGPT sobre raciocínio, alucinação e interatividade.
Yejin Bang, Samuel Cahyawijaya, Nayeon Lee, Wenliang Dai, Dan Su, Bryan Wilie, Holy Lovenia, Ziwei Ji, Tiezheng Yu, Willy Chung, Quyet V. Do, Yan Xu, Pascale Fung. [ABS], 2023.2
O ChatGPT é um solucionador experiente, mas inexperiente: uma investigação do problema de senso comum em grandes modelos de idiomas.
Ning Bian, Xianpei Han, Le Sun, Hongyu Lin, Yaojie Lu, Ben He. [ABS], 2023.3
Por que pensar passo a passo? O raciocínio emerge da localidade da experiência.
Ben Prystawski, Noah D. Goodman. [ABS], 2023.4
Aprendendo o raciocínio dedutivo do corpus sintético com base na lógica formal.
Terufumi Morishita, Gaku Morio, Atsuki Yamaguchi, Yasuhiro Sogawa. [ABS], 2023.8
| Habilidades de raciocínio | Benchmarks |
|---|---|
| Raciocínio aritmético | Gsm8k, svamp, asdiv, aqua-rat, mawps, addsub, multiarith, singeq, singleop |
| Raciocínio de senso comum | Commonsenseqa, Strategyqa, ARC, SayCan, Boolqa, Hotpotqa, OpenBookqa, Piqa, Wikiwhy |
| Raciocínio simbólico | Última letra concatenação, monte de moeda, lista reversa |
| Raciocínio lógico | ProvaWriter, Intelandbank, Ruletaker, Clútrr, FLD |
| Raciocínio multimodal | Scienceqa |
| Outros | Centro grande, scan, cadeia de pensamento, Sr.-Ben, Worfbench |
/abs/ formato se for uma publicação ARXIV).Não se preocupe se você colocar algo errado, eles serão consertados para você. Basta contribuir e promover seu trabalho incrível aqui!
Se você achar esta pesquisa útil para sua pesquisa, considere citar
@inproceedings{qiao-etal-2023-reasoning,
title = "Reasoning with Language Model Prompting: A Survey",
author = "Qiao, Shuofei and
Ou, Yixin and
Zhang, Ningyu and
Chen, Xiang and
Yao, Yunzhi and
Deng, Shumin and
Tan, Chuanqi and
Huang, Fei and
Chen, Huajun",
booktitle = "Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
month = jul,
year = "2023",
address = "Toronto, Canada",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2023.acl-long.294",
pages = "5368--5393",
abstract = "Reasoning, as an essential ability for complex problem-solving, can provide back-end support for various real-world applications, such as medical diagnosis, negotiation, etc. This paper provides a comprehensive survey of cutting-edge research on reasoning with language model prompting. We introduce research works with comparisons and summaries and provide systematic resources to help beginners. We also discuss the potential reasons for emerging such reasoning abilities and highlight future research directions. Resources are available at https://github.com/zjunlp/Prompt4ReasoningPapers (updated periodically).",
}