El razonamiento, como una capacidad esencial para la resolución de problemas complejos, puede proporcionar apoyo de fondo para varias aplicaciones del mundo real, como diagnóstico médico, negociación, etc. Este documento proporciona una encuesta integral de la investigación de vanguardia sobre el razonamiento con la solicitud del modelo de idioma. Introducimos trabajos de investigación con comparaciones y resúmenes y proporcionamos recursos sistemáticos para ayudar a los principiantes. También discutimos las posibles razones para emerger tales habilidades de razonamiento y destacamos las direcciones de investigación futuras.
Razonamiento con indicación del modelo de idioma: una encuesta.
Shuofei Qiao, Yixin Ou, Ningyu Zhang, Xiang Chen, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Huajun Chen. [ABS], 2022.12
Hacia el razonamiento en modelos de idiomas grandes: una encuesta.
Jie Huang, Kevin Chen-Chuan Chang. [ABS], 2022.12
Una encuesta sobre el aprendizaje profundo para el razonamiento matemático.
Pan Lu, Liang Qiu, Wenhao Yu, Sean Welleck, Kai-Wei Chang. [ABS], 2022.12
Una encuesta para el aprendizaje en contexto.
Qingxiu Dong, Lei Li, Damai Dai, Ce Zheng, Zhiyong Wu, Baobao Chang, Xu Sun, Jingjing Xu, Lei Li, Zhifang Sui. [ABS], 2022.12
Razonamiento de la máquina neuronal mejorada por el conocimiento: una revisión.
Tanmoy Chowdhury, Chen Ling, Xuchao Zhang, Xujiang Zhao, Guangji Bai, Jian Pei, Haifeng Chen, Liang Zhao. [ABS], 2023.2
Modelos de idiomas aumentados: una encuesta.
Grégoire Mialon, Roberto Desta, Maria Lomeli, Christoforos Nalmpantis, Ram Pasunuru, Roberta Raileanu, Baptiste Rozière, Timo Schick, Jane Dwivedi-yu, Asli Celikyilmaz, Edouard Grave, Yann Lecun, Thomas Scialom. [ABS], 2023.2
El ciclo de vida del conocimiento en los modelos de grandes idiomas: una encuesta.
Boxi Cao, Hongyu Lin, Xianpei Han, Le Sun. [ABS], 2023.3
¿Es rápido todo lo que necesitas? No. Una visión integral y más amplia del aprendizaje de instrucciones.
Renze Lou, Kai Zhang, Wenpeng Yin. [ABS], 2023.3
Razonamiento lógico sobre el lenguaje natural como representación del conocimiento: una encuesta.
Zonglin Yang, Xinya Du, Rui Mao, Jinjie Ni, Erik Cambria. [ABS], 2023.3
Razonamiento del lenguaje natural, una encuesta.
Fei Yu, Hongbo Zhang, Benyou Wang. [ABS], 2023.3
Una encuesta de grandes modelos de idiomas.
Wayne Xin Zhao, Kun Zhou, Junyi Li, Tianyi Tang, Xiaolei Wang, Yupeng Hou, Yingqian Min, Beichen Zhang, Junjie Zhang, Zican Dong, Yifan Du, Chen Yang, Yushuo Chen, Zhipeng Chen, Jinhao Jiang, Ruiyang Ren, Yifan Li, Xinyu Tang, Zikang Liu, Peiyu Liu, Jian-yun Nie, Ji-Rong Wen. [ABS], 2023.3
Aprendizaje de herramientas con modelos de base.
Yujia Qin, Shengding Hu, Yankai Lin, Weize Chen, Ning Ding, Ganqu Cui, Zheni Zeng, Yufei Huang, Chaojun Xiao, Chi Han, Yi Ren Fung, Yusheng Su, Huadong Wang, Cheng Qian, Runchu Tian, Kunlun Zhhu, Shihao Liang, Xingyu, xyu Bokai Xu, Zhen Zhang, Yining Ye, Bowen Li, Ziwei Tang, Jing Yi, Yuzhang Zhu, Zhenning Dai, Lan Yan, Xin Cong, Yaxi Lu, Weilin Zhao, Yuxiang Huang, Junxi Yan, Xu Han, Xian Sun, Dahai Li, Jason Phang, CHang, CHANG, CHANGSHIG Wu, Heng Ji, Zhiyuan Liu, Maosong Sun. [ABS], 2023.4
Una encuesta sobre el razonamiento de la cadena de pensamiento: avances, fronteras y futuro.
Zheng Chu, Jingchang Chen, Qianglong Chen, Weijiang Yu, Tao He, Haotian Wang, Weihua Peng, Ming Liu, Bing Qin, Ting Liu. [ABS], 2023.9
Una encuesta de razonamiento con modelos de base: conceptos, metodologías y perspectivas.
Jiankai Sun, Chuanyang Zheng, Enze Xie, Zhenging Liu, Ruihang Chu, Jianing Qiu, Jiaqi Xu, Mingyu Ding, Hongyang Li, Mengzhe Geng, Yue Wu, Wenhai Wang, Junsong Chen, Zhangyue Yin, Xiaozhe Ren, Jie Fu, Junsug, Junsong Chen, Zhangyue Yin, Xiaozhe Sil Liu, Xihui Liu, Yu Li, Hao Dong, Yu Cheng, Ming Zhang, Pheng Ann Heng, Jifeng Dai, Ping Luo, Jingdong Wang, Ji-Rong Wen, Xipeng Qiu, Yike Guo, Hui Xiong, Qun Liu, Zhenguulo Li. [ABS], 2023.12
Provocando explicaciones contrastantes para las tareas de razonamiento de sentido común.
Bhargavi Paranjape, Julian Michael, Marjan Ghazvininejad, Luke Zettlemoyer, Hannaneh Hajishirzi. [ABS], 2021.6
Llenado de plantilla para razonamiento de sentido común controlable.
Dheeraj Rajagopal, Vivek Khetan, Bogdan Sacaleanu, Anatole Gershman, Andrew Fano, Eduard Hovy. [ABS], 2021.11
La cadena de pensamiento provoca un razonamiento en modelos de idiomas grandes.
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed H. Chi, Quoc V. LE, Denny Zhou. [ABS], 2022.1
Los modelos de idiomas grandes son razonadores de cero disparos.
Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa. [ABS], 2022.5
Indicaciones de cadena de pensamiento informadas psicológicamente para la comprensión de las metáforas en modelos de idiomas grandes.
Ben Prystawski, Paul Thibodeau, Noah Goodman. [ABS], 2022.9
Involucentación basada en la complejidad para el razonamiento de varios pasos.
Yao Fu, Hao Peng, Ashish Sabharwal, Peter Clark, Tushar Khot. [ABS], 2022.10
Los modelos de idiomas son razonadores multilingües de la cadena de pensamiento.
Freda Shi, Mirac Suzgun, Markus Freitag, Xuezhi Wang, Suraj Srivats, Soroush Vosoughi, Hyung Won Chung, Yi Tay, Sebastian Ruder, Denny Zhou, Dipanjan Das, Jason Wei. [ABS], 2022.10
Cadena de pensamiento automático de la cadena de pensamiento en modelos de idiomas grandes.
Zhuosheng Zhang, Aston Zhang, Mu Li, Alex Smola. [ABS], 2022.10
Los modelos de idiomas grandes son pocos (1) razonadores de la tabla moderna.
Wenhu Chen. [ABS], 2022.10
Enseñanza de razonamiento algorítmico a través del aprendizaje en contexto.
Hattie Zhou, Azade Nova, Hugo Larochelle, Aaron Courville, Behnam Neyshabur, Hanie Sedghi. [ABS], 2022.11
Involucentación activa con la cadena de pensamiento para modelos de idiomas grandes.
Shizhe Diao, Pengcheng Wang, Yong Lin, Tong Zhang. [ABS], 2023.2
Aumento automático y selección de aviso con la cadena de pensamiento de los datos etiquetados.
Kashun Shum, Shizhe Diao, Tong Zhang. [ABS], 2023.2
Un catálogo de patrones rápidos para mejorar la ingeniería rápida con CHATGPT.
Jules White, Quchen Fu, Sam Hays, Michael Sandborn, Carlos Olea, Henry Gilbert, Ashraf Elnashar, Jesse Spencer-Smith, Douglas C Schmidt. [ABS], 2023.2
ChatGPT Patrones de solicitud para mejorar la calidad del código, la refactorización, la obtención de requisitos, el aprendizaje para razonar y memorizar con el diseño de software de notas notas.
Jules White, Sam Hays, Quchen FU, Jesse Spencer-Smith, Douglas C Schmidt. [ABS], 2023.3
Aprender a razonar y memorizar con notas.
Jack Lanchantin, Shubham Toshniwal, Jason Weston, Arthur Szlam, Sainbayar Sukhbaatar. [ABS], 2023.5
Preparación de planificación y resuelto: Mejora del razonamiento de la cadena de pensamiento cero de los modelos de idiomas grandes.
Lei Wang, Wanyu Xu, Yihuai Lan, Zhiqiang Hu, Yunshi Lan, Roy Ka-Wei Lee, Ee-Peng Lim. [ABS], 2023.5
Más allá de la cadena de pensamiento y el razonamiento efectivo de gráfico de pensamiento en modelos de idiomas grandes.
Yao Yao, Zuchao Li, Hai Zhao. [ABS], 2023.5
La relectura mejora el razonamiento en los modelos de idiomas.
Xiaohan Xu, Chongyang Tao, Tao Shen, Can Xu, Hongbo Xu, Guodong Long, Jian-Guang Lou. [ABS], 2023.9
Evaluación y optimización de inmediato dependiente de la consulta con RL inverso fuera de línea.
Hao Sun, Alihan Huyuk, Mihaela van der Schaar. [ABS], 2023.9
Iterativamente introdujo modelos de lenguaje previamente capacitados para la cadena de pensamiento.
Boshi Wang, Xiang Deng, Huan Sun. [ABS], 2022.3
Inferencia de selección: explotar modelos de lenguaje grande para un razonamiento lógico interpretable.
Antonia Creswell, Murray Shanahan, Irina Higgins. [ABS], 2022.5
La solicitud de menos a la mayoría permite un razonamiento complejo en modelos de idiomas grandes.
Denny Zhou, Nathanael Schärli, Le Hou, Jason Wei, Nathan Scales, Xuezhi Wang, Dale Schuurmans, Olivier Bousquet, Quoc Le, Ed Chi. [ABS], 2022.5
Información de Maieutic: razonamiento lógicamente consistente con explicaciones recursivas.
Jaehun Jung, Lianhui Qin, Sean Welleck, Feeze Brahman, Chandra Bhagavatula, Ronan Le Bras, Yejin Choi. [ABS], 2022.5
Razonamiento fiel utilizando modelos de idiomas grandes.
Antonia Creswell, Murray Shanahan. [ABS], 2022.8
Análisis semántico compositivo con grandes modelos de idiomas.
Andrew Drozdov, Nathanael Schärli, Ekin Akyürek, Nathan Scales, Xinying Song, Xinyun Chen, Olivier Bousquet, Denny Zhou. [ABS], 2022.9
Preparación descompuesta: un enfoque modular para resolver tareas complejas.
Tushar Khot, Harsh Trivedi, Matthew Finlayson, Yao Fu, Kyle Richardson, Peter Clark, Ashish Sabharwal. [ABS], 2022.10
Medir y reducir la brecha de composición en los modelos de lenguaje.
Ofir Press, Muru Zhang, Sewon Min, Ludwig Schmidt, Noah A. Smith, Mike Lewis. [ABS], 2022.10
Solicitud sucesiva para la descomposición de preguntas complejas.
Dheeru Dua, Shivanshu Gupta, Sameer Singh, Matt Gardner. [ABS], 2022.12
El impacto de las representaciones simbólicas en el aprendizaje en contexto para un razonamiento de pocos disparos.
Hanlin Zhang, Yi-Fan Zhang, Li Erran Li, Eric Xing. [ABS], 2022.12
Lambada: encadenamiento hacia atrás para razonamiento automatizado en lenguaje natural.
Seyed Mehran Kazemi, Najoung Kim, Deepti Bhatia, Xin Xu, Deepak Ramachandran. [ABS], 2022.12
Descomposición iterada: Mejora de las preguntas y respuestas de la ciencia supervisando los procesos de razonamiento.
Justin Reppert, Ben Rachbach, Charlie George, Luke Stebbing, Jungwon Byun, Maggie Appleton, Andreas Stuhlmüller. [ABS], 2023.1
Autopolish: mejorar el razonamiento en modelos de idiomas grandes a través del refinamiento de problemas.
Zhiheng XI, Senjie Jin, Yuhao Zhou, Rui Zheng, Songyang Gao, Tao Gui, Qi Zhang, Xuanjing Huang. [ABS], 2023.5
Replanteamiento de la colaboración Human-AI para generar explicaciones de texto libre.
Sarah Wiegreffe, Jack Hessel, Swabha Swayamdipta, Mark Riedl, Yejin Choi. [ABS], 2021.12
La falta de fiabilidad de las explicaciones en el aprendizaje de pocos disparos en contexto.
XI YE, Greg Durrett. [ABS], 2022.5
Razonamiento múltiple guiado por discriminadores con modelos de idiomas.
Muhammad Khalifa, Lajanugen Logeswaran, Moontae Lee, Honglak Lee, Lu Wang. [ABS], 2023.5
RCOT: detectar y rectificar la inconsistencia objetiva en el razonamiento revertiendo la cadena de pensamiento.
Tianci Xue, Ziqi Wang, Zhenhailong Wang, Chi Han, Pengfei Yu, Heng Ji. [ABS], 2023.5
La autoconsistencia mejora el razonamiento de la cadena de pensamiento en los modelos de idiomas.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc LE, Ed H. Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou. [ABS], 2022.3
Con el avance de hacer que los modelos de idiomas sean mejores razonadores.
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weizhu Chen. [ABS], 2022.6
Involucentación basada en la complejidad para el razonamiento de varios pasos.
Yao Fu, Hao Peng, Ashish Sabharwal, Peter Clark, Tushar Khot. [ABS], 2022.10
Los modelos de idiomas grandes son razonadores con autoverificación.
Yixuan Weng, Minjun Zhu, Shizhu He, Kang Liu, Jun Zhao. [ABS], 2022.12
Respondiendo preguntas por meta-razonamiento sobre múltiples cadenas de pensamiento.
Ori Yoran, Tomer Wolfson, Ben Bogin, Uri Katz, Daniel Deutch, Jonathan Berant. [ABS], 2023.4
Árbol de pensamientos: resolución deliberada de problemas con modelos de idiomas grandes.
Shunyu Yao, Dian Yu, Jeffrey Zhao, Izhak Shafran, Thomas L. Griffiths, Yuan Cao, Karthik Narasimhan. [ABS], 2023.5
Mejora de la fáctica y el razonamiento en los modelos de idiomas a través del debate multiagente.
Yilun du, Shuang Li, Antonio Torralba, Joshua B. Tenenbaum, Igor Mordatch. [ABS], 2023.5
Automix: mezcla automáticamente modelos de idiomas
Aman Madaan, Pranjal Aggarwal, Ankit Anand, Srividya Pranavi Potharaju, Swaroop Mishra, Pei Zhou, Aditya Gupta, Dheeraj Rajagopal, Karthik Kappaganthu, Yiming Yang, Shyam Upadhyay, Mausam, Manaal Faruqui. [ABS], 2023.9
Reversión del pensamiento: Mejora de modelos de idiomas grandes con calentamiento de razonamiento inverso guiado por preferencias.
Jiahao Yuan, Dehui du, Hao Zhang, Zixiang Di, Usman Naseem. [ABS], [Código], 2024.10
Estrella: Bootstrapping Razoning con razonamiento.
Eric Zelikman, Yuhuai Wu, Noah D. Goodman. [ABS], 2022.3
Los modelos de idiomas grandes pueden hacer auto-avanzar.
Jiaxin Huang, Shixiang Shane GU, Le Hou, Yuexin Wu, Xuezhi Wang, Hongkun Yu, Jiawei Han. [ABS], 2022.10
Reflexión: un agente autónomo con memoria dinámica y autorreflexión.
Noah Shinn, Beck Labash, Ashwin Gopinath. [ABS], 2023.3
AutoRefino: refinamiento iterativo con autocuración.
Aman Madaan, Niket Tandon, Prakhar Gupta, Skyler Hallinan, Luyu Gao, Sarah Wiegreffe, Uri Alon, Nouha Dziri, Shrimai Prabhumoye, Yiming Yang, Sean Welleck, Bodhisattwa Prasad Majumder, Shashank Gupta, Amir Yazdanbakhsh. [ABS], 2023.3
Refinador: retroalimentación de razonamiento sobre representaciones intermedias.
Debjit Paul, Mete Ismayilzada, Maxime Peyrard, Beatriz Borges, Antoine Bosselut, Robert West, Boi Faltings. [ABS], 2023.4
El razonamiento con el modelo de idioma es planificar con el modelo mundial
Shibo Hao*, Yi Gu*, Haodi MA, Joshua Jiahua Hong, Zhen Wang, Daisy Zhe Wang, Zhiting Hu [ABS], 2023.5
Mejora del razonamiento de la cadena de pensamiento cero en modelos de lenguaje grande a través de la lógica.
Xufeng Zhao, Mengdi Li, Wenhao Lu, Cornelius Weber, Jae Hee Lee, Kun Chu, Stefan Wermter. [ABS] [Código], 2024.2
Mind's Eye: razonamiento del modelo de lenguaje fundamentado a través de la simulación.
Ruibo Liu, Jason Wei, Shixiang Shane GU, Te-Yen Wu, Soroush Vosoughi, Claire Cui, Denny Zhou, Andrew M. Dai . [ABS], 2022.10
Los modelos de idioma de código son alumnos de sentido común de pocos disparos.
Aman Madaan, Shuyan Zhou, Uri Alon, Yiming Yang, Graham Neubig. [ABS], 2022.10
PAL: modelos de idiomas asistidos por el programa.
Luyu Gao, Aman Madaan, Shuyan Zhou, Uri Alon, Pengfei Liu, Yiming Yang, Jamie Callan, Graham Neubig. [ABS], 2022.11
Programa de indicaciones de pensamientos: Computación desanimada del razonamiento para tareas de razonamiento numérico.
Wenhu Chen, Xueguang MA, Xinyi Wang, William W. Cohen. [ABS], 2022.11
Razonamiento fiel de la cadena de pensamiento.
Qing Lyu, Shreya Havaldar, Adam Stein, Li Zhang, Delip Rao, Eric Wong, Marianna Apidianaki, Chris Callison-Burch. [ABS], 2023.1
Los modelos de idiomas grandes son descomponedores versátiles: descomponen evidencia y preguntas para el razonamiento basado en la mesa.
Yunhu Ye, Binyuan Hui, Min Yang, Binhua Li, Fei Huang, Yongbin Li. [ABS], 2023.1
Información sintética: Generación de demostraciones de la cadena de pensamiento para modelos de idiomas grandes.
Zhihong Shao, Yeyun Gong, Yelong Shen, Minlie Huang, Nan Duan, Weizhu Chen. [ABS], 2023.2
MathPrompter: razonamiento matemático utilizando modelos de idiomas grandes.
Shima Imani, Liang du, Harsh Shrivastava. [ABS], 2023.3
Selección automática de modelos con grandes modelos de lenguaje para razonamiento.
Xu Zhao, Yuxi Xie, Kenji Kawaguchi, Junxian He, Qizhe Xie. [ABS], 2023.5
Solicitud de código: un método simbólico neural para un razonamiento complejo en modelos de idiomas grandes.
Yi Hu, Haotong Yang, Zhouchen Lin, Muhan Zhang. [ABS], 2023.5
La magia de IF: Investigar las habilidades de razonamiento causal en modelos de código de idiomas grandes.
Xiao Liu, Da Yin, Chen Zhang, Yansong Feng, Dongyan Zhao. [ABS], 2023.5
Zhen BI, Ningyu Zhang, Yinuo Jiang, Shumin Deng, Guozhou Zheng, Huajun Chen. [ABS], 2023.12
Formador de herramientas: los modelos de idiomas pueden enseñarse a usar herramientas.
Timo Schick, Jane Dwivedi-yu, Roberto Desta, Roberta Raileanu, Maria Lomeli, Luke Zettlemoyer, Nicola Cancedda, Thomas Scialom. [ABS], 2023.2
Arte: razonamiento automático de varios pasos y uso de herramientas para modelos de idiomas grandes.
Bhargavi Paranjape, Scott Lundberg, Sameer Singh, Hannaneh Hajishirzi, Luke Zettlemoyer, Marco Tulio Ribeiro. [ABS], 2023.3
Camaleón: razonamiento compositivo de plug-and-play con grandes modelos de lenguaje.
Pan Lu, Baolin Peng, Hao Cheng, Michel Galley, Kai-Wei Chang, Ying Nian Wu, Song-Chun Zhu, Jianfeng Gao. [ABS], 2023.4
CRÍTICO: Los modelos de lenguaje grande pueden autocorregarse con la crítica interactiva para herramientas.
Zhibin Gou, Zhihong Shao, Yeyun Gong, Yelong Shen, Yujiu Yang, Nan Duan, Weizhu Chen. [ABS], 2023.5
Hacer modelos de idiomas mejores estudiantes de herramientas con comentarios de ejecución.
Shuofei Qiao, Honghao Gui, Huajun Chen, Ningyu Zhang. [ABS], 2023.5
Creador: desenredado de razonamientos abstractos y concretos de modelos de idiomas grandes a través de la creación de herramientas.
Cheng Qian, Chi Han, Yi R. Fung, Yujia Qin, Zhiyuan Liu, Heng Ji. [ABS], 2023.5
CHATCOT: razonamiento de la cadena de pensamiento de pensamiento de herramientas en modelos de idiomas grandes basados en chat.
Zhipeng Chen, Kun Zhou, Beichen Zhang, Zheng Gong, Wayne Xin Zhao, Ji-Rong Wen. [ABS], 2023.5
MultiTool-Cot: GPT-3 puede usar múltiples herramientas externas con la cadena de indicaciones de pensamiento.
Tatsuro Inaba, Hirokazu Kiyomaru, Fei Cheng, Sadao Kurohashi. [ABS], 2023.5
Toolkengpt: Aumento de modelos de lenguaje congelado con herramientas masivas a través de insertos de herramientas
Shibo Hao, Tianyang Liu, Zhen Wang, Zhiting Hu [ABS], 2023.5
Conocimiento generado por el conocimiento para el razonamiento de sentido común.
Jiacheng Liu, Alisa Liu, Ximing Lu, Sean Welleck, Peter West, Ronan Le Bras, Yejin Choi, Hannaneh Hajishirzi. [ABS], 2021.10
Rainier: Interrospector de conocimiento reforzado para la respuesta de las preguntas de sentido común.
Jiacheng Liu, Skyler Hallinan, Ximing Lu, Pengfei He, Sean Welleck, Hannaneh Hajishirzi, Yejin Choi. [ABS], 2022.10
Las explicaciones de los modelos de idiomas grandes mejoran pequeños razonadores.
Shiyang Li, JiAnshu Chen, Yelong Shen, Zhiyu Chen, Xinlu Zhang, Zekun Li, Hong Wang, Jing Qian, Baolin Peng, Yi Mao, Wenhu Chen, Xifeng Yan. [ABS], 2022.10
Pinto: razonamiento del lenguaje fiel utilizando los fundamentos generados con aviso.
Peifeng Wang, Aaron Chan, Filip Ilievski, Muhao Chen, Xiang Ren. [ABS], 2022.11
TSGP: solicitante generativo de dos etapas para la respuesta de preguntas de sentido común no supervisado.
Yueqing Sun, Yu Zhang, Le Qi, Qi Shi. [ABS], 2022.11
Destilar capacidades de razonamiento de varios pasos de modelos de idiomas grandes en modelos más pequeños a través de descomposiciones semánticas.
Kumar Shridhar, Alessandro Stolfo, Mrinmaya Sachan. [ABS], 2022.12
Enseñar modelos de idiomas pequeños a la razón.
Lucie Charlotte Magister, Jonathan Mallinson, Jakub Adamek, Eric Malmi, Aliaksei Severyn. [ABS], 2022.12
Los modelos de idiomas grandes son maestros de razonamiento.
Namgyu Ho, Laura Schmid, Se-Young Yun. [ABS], 2022.12
Especialización de modelos de idiomas más pequeños para un razonamiento de varios pasos.
Yao Fu, Hao Peng, Litu Ou, Ashish Sabharwal, Tushar Khot. [ABS], 2023.1
PAD: la destilación asistida por el programa especializa modelos grandes en razonamiento.
Xuekai Zhu, Biqing Qi, Kaiyan Zhang, Xingwei Long, Bowen Zhou. [ABS], 2023.5
MEMPROMPT: edición rápida asistida por memoria para mejorar GPT-3 después de la implementación
Aman Madaan, Niket Tandon, Peter Clark, Yiming Yang. [ABS], 2022.1
Logicsolver: hacia la resolución de problemas de palabras matemáticas interpretables con aprendizaje lógico mejorado con aviso.
Zhicheng Yang, Jinghui Qin, Jiaqi Chen, Liang Lin, Xiaodan Liang. [ABS], 2022.5
La anotación selectiva hace que los modelos de idiomas sean mejores estudiantes de pocos disparos.
Hongjin Su, Jungo Kasai, Chen Henry Wu, Weijia Shi, Tianlu Wang, Jiayi Xin, Rui Zhang, Mari Ostendorf, Luke Zettlemoyer, Noah A. Smith, Tao Yu. [ABS], 2022.9
Aprendizaje indicador de inmediato a través del gradiente de políticas para el razonamiento matemático semiestructurado.
Pan Lu, Liang Qiu, Kai-Wei Chang, Ying Nian Wu, Song-Chun Zhu, Tanmay Rajpurohit, Peter Clark, Ashwin Kalyan. [ABS], 2022.9
Recuperación de intercalación con razonamiento de la cadena de pensamiento para las preguntas de múltiples pasos que intensifican el conocimiento.
Harsh Trivedi, Niranjan Balasubramanian, Tushar Khot, Ashish Sabharwal. [ABS], 2022.12
Repensar con recuperación: inferencia de modelo de lenguaje grande fiel.
Hangfeng He, Hongming Zhang, Dan Roth. [ABS], 2023.1
Verificar y editar: un marco de cadena de pensamiento mejorado por el conocimiento.
Ruochen Zhao, Xingxuan Li, Shafiq Joty, Chengwei Qin, Lidong Bing. [ABS], 2023.5
Cascadas de modelos de idiomas.
David Dohan, Winnie Xu, Aitor Lewkowycz, Jacob Austin, David Bieber, Raphael Gontijo Lopes, Yuhuai Wu, Henryk Michalewski, Rif A. Saurous, Jascha Sohl-Dickstein, Kevin Murphy, Charles Sutton . [ABS], 2022.7
Aprenda a explicar: razonamiento multimodal a través de cadenas de pensamiento para la respuesta de las preguntas de la ciencia.
Pan Lu, Swaroop Mishra, Tony Xia, Liang Qiu, Kai-Wei Chang, Song-Chun Zhu, Oyvind Tafjord, Peter Clark, Ashwin Kalyan. [ABS], 2022.9
Razonamiento analógico multimodal sobre gráficos de conocimiento.
Ningyu Zhang, Lei Li, Xiang Chen, Xiaozhuan Liang, Shumin Deng, Huajun Chen. [ABS], 2022.10
Instrucción de escala Modelos de lenguaje finalizado.
Hyung ganó Chung, Le Hou, Shayne Longpre, Barret Zoph, Yi Tay, William Fedus, Yunxuan Li, Xuezhi Wang, Mostafa Dehghani, Siddhartha Brahma, Albert Webson, Shixiang Shane Gu, Zhuyun Dai, Mirac Suzgun, Xinyun Chen, Aakanksha, Chower Marie Pellat, Kevin Robinson, Dasha Valter, Sharan Narang, Gaurav Mishra, Adams Yu, Vincent Zhao, Yanping Huang, Andrew Dai, Hongkun Yu, Slav Petrov, Ed H. Chi, Jeff Dean, Jacob Devlin, Adam Roberts, Denny Zhou, Quoc v. Le, Jason Wei. [ABS], 2022.10
Vea, piense, confirme: Intervisión interativa entre la visión y los modelos de lenguaje para el razonamiento visual basado en el conocimiento.
Zhenfang Chen, Qinhong Zhou, Yikang Shen, Yining Hong, Hao Zhang, Chuang Gan. [ABS], 2023.1
Razonamiento multimodal de la cadena de pensamiento en modelos de idiomas.
Zhuosheng Zhang, Aston Zhang, Mu Li, Hai Zhao, George Karypis, Alex Smola. [ABS], 2023.2
El lenguaje no es todo lo que necesita: alinear la percepción con los modelos de idiomas.
Shaohan Huang, Li Dong, Wenhui Wang, Yaru Hao, Saksham Singhal, Shuming Ma, Tengchao Lv, Lei Cui, Owais Khan Mohammed, Qiang Liu, Kriti Aggarwal, Zewen Chi, Johan Bjorck, Vishrav Chaudhary, Subhojit Som, Xia Song, Furu Wei. [ABS], 2023.2
Chatgpt visual: hablar, dibujar y editar con los modelos Visual Foundation.
Chenfei Wu, Shengming Yin, Weizhen Qi, Xiaodong Wang, Zecheng Tang, Nan Duan. [ABS], 2023.3
VIPERGPT: Inferencia visual a través de la ejecución de Python para el razonamiento.
Dídac Surís, Sachit Menon, Carl Vondrick. [ABS], 2023.3
MM-REACC: solicitar ChatGPT para razonamiento y acción multimodal.
Zhengyuan Yang, Linjie Li, Jianfeng Wang, Kevin Lin, Ehsan Azarnasab, Faisal Ahmed, Zicheng Liu, Ce Liu, Michael Zeng, Lijuan Wang. [ABS], 2023.3
Aumento de la teoría de la mente del rendimiento en modelos de idiomas grandes a través de la solicitud.
Shima Rahimi Moghaddam, Christopher J. Honey. [ABS], 2023.4
¿Pueden los modelos de idiomas aprender de las explicaciones en contexto?
Andrew K. Lampinen, Ishita Dasgupta, Stephanie Cy Chan, Kory Matthewson, Michael Henry Tessler, Antonia Creswell, James L. McClelland, Jane X. Wang, Felix Hill. [ABS], 2022.4
Habilidades emergentes de modelos de idiomas grandes.
Jason Wei, Yi Tay, Rishi Bommasani, Colin Raffel, Barret Zoph, Sebastian Borgeaud, Dani Yogatama, Maarten Bosma, Denny Zhou, Donald Metzler, Ed H. Chi, Tatsunori Hashimoto, Oriol Vinyals, Percy Liang, Jeff Dean, William Fedus. [ABS], 2022.6
Los modelos de idiomas muestran efectos de contenido similar a los humanos en el razonamiento.
Ishita Dasgupta, Andrew K. Lampinen, Stephanie Cy Chan, Antonia Creswell, Dharshan Kumaran, James L. McClelland, Felix Hill. [ABS], 2022.7
Conjuntos de lógica en modelos de idiomas.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Denny Zhou. [ABS], 2022.7
¿Pueden los modelos de idiomas grandes realmente comprender las indicaciones? Un estudio de caso con indicaciones negadas.
Joel Jang, Seongheyon Ye, Minjoon Seo. [ABS], 2022.9
Texto y patrones: para una cadena de pensamiento efectiva, se necesitan dos en tango
Aman Madaan, Amir Yazdanbakhsh. [ABS], 2022.9
Desafiando las tareas de Big Bench y si la cadena de pensamiento puede resolverlas.
Mirac Suzgun, Nathan Scales, Nathanael Schärli, Sebastian Gehrmann, Yi Tay, Hyung Won Chung, Aakanksha Chowdhery, Quoc V. LE, Ed H. Chi, Denny Zhou, Jason Wei. [ABS], 2022.10
Los modelos de idiomas son razonadores codiciosos: un análisis formal sistemático de la cadena de pensamiento.
Abulhair Saparov, él. [ABS], 2022.10
Desbloqueo del conocimiento para mitigar los riesgos de privacidad en los modelos de idiomas.
Joel Jang, Dongkeun Yoon, Sohee Yang, Sungmin Cha, Moontae Lee, Lajanugen Logeswaran, Minjoon Seo. [ABS], 2022.10
Razonamiento analógico emergente en modelos de lenguaje grande.
Taylor Webb, Keith J. Holyoak, Hongjing Lu. [ABS], 2022.12
Hacia la comprensión de la provisión de la cadena de pensamiento: un estudio empírico de lo que importa.
Boshi Wang, Sewon Min, Xiang Deng, Jiaming Shen, You Wu, Luke Zettlemoyer, Huan Sun. [ABS], 2022.12
Pensando en segundo lugar, ¡no pensemos paso a paso! Sesgo y toxicidad en razonamiento de disparo cero.
Omar Shaikh, Hongxin Zhang, William Held, Michael Bernstein, Diyi Yang. [ABS], 2022.12
¿Pueden los modelos de idiomas acuáticos de Rederiever razonamiento? El juego de la culpa entre el Retriever y el modelo de idioma.
Parishad Behnamghader, Santiago Miret, Siva Reddy. [ABS], 2022.12
¿Por qué GPT puede aprender en contexto? Los modelos de lenguaje realizan descenso en secreto como meta-optimizadores.
Damai Dai, Yutao Sun, Li Dong, Yaru Hao, Zhifang Sui, Furu Wei. [ABS], 2022.12
El lenguaje disociado y el pensamiento en modelos de idiomas grandes: una perspectiva cognitiva.
Kyle Mahowald, Anna A. Ivanova, Idan A. Blank, Nancy Kanwisher, Joshua B. Tenenbaum, Evelina Fedorenko. [ABS], 2023.1
Los modelos de lenguaje grande pueden distraerse fácilmente por un contexto irrelevante.
Freda Shi, Xinyun Chen, Kanishka Misra, Nathan Scales, David Dohan, Ed Chi, Nathanael Schärli, Denny Zhou. [ABS], 2023.2
Una evaluación multilingüe, multilingüe y multimodal de ChatGPT sobre razonamiento, alucinación e interactividad.
Yejin Bang, Samuel Cahyawijaya, Nayeon Lee, Wenliang Dai, Dan Su, Bryan Wilie, Holy Lovenia, Ziwei Ji, Tiezheng Yu, Willy Chung, Quyet V. Do, Yan Xu, Pascale Fung. [ABS], 2023.2
ChatGPT es un solucionador conocedor pero inexperto: una investigación del problema de sentido común en modelos de idiomas grandes.
Ning Bian, Xianpei Han, Le Sun, Hongyu Lin, Yaojie Lu, Ben He. [ABS], 2023.3
¿Por qué pensar paso a paso? El razonamiento surge de la localidad de la experiencia.
Ben Prystawski, Noah D. Goodman. [ABS], 2023.4
Aprender razonamiento deductivo del corpus sintético basado en la lógica formal.
Terufumi Morishita, Gaku Morio, Atsuki Yamaguchi, Yasuhiro Sogawa. [ABS], 2023.8
| Habilidades de razonamiento | Puntos de referencia |
|---|---|
| Razonamiento aritmético | GSM8K, SVAMP, ASDIV, AQUA-RAT, MAWPS, ADDSUB, MULTIARITH, SingleeQ, SingleOP |
| Razonamiento de sentido común | Commonsenseqa, Strategyqa, Arc, Saycan, Boolqa, Hotpotqa, OpenBookqa, Piqa, Wikiwhy |
| Razonamiento simbólico | Concatenación de la última letra, Flip de monedas, lista inversa |
| Razonamiento lógico | Pruebawriter, con respecto a Bank, Ruletaker, Clutrr, FLD |
| Razonamiento multimodal | Cienciaqa |
| Otros | Big-bench, escaneo, centro de cadena de pensamiento, Sr.-Ben, Worfbench |
/abs/ formato si es una publicación ARXIV).No se preocupe si pone algo mal, se arreglarán para usted. ¡Solo contribuye y promueve su increíble trabajo aquí!
Si encuentra esta encuesta útil para su investigación, considere citar
@inproceedings{qiao-etal-2023-reasoning,
title = "Reasoning with Language Model Prompting: A Survey",
author = "Qiao, Shuofei and
Ou, Yixin and
Zhang, Ningyu and
Chen, Xiang and
Yao, Yunzhi and
Deng, Shumin and
Tan, Chuanqi and
Huang, Fei and
Chen, Huajun",
booktitle = "Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
month = jul,
year = "2023",
address = "Toronto, Canada",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2023.acl-long.294",
pages = "5368--5393",
abstract = "Reasoning, as an essential ability for complex problem-solving, can provide back-end support for various real-world applications, such as medical diagnosis, negotiation, etc. This paper provides a comprehensive survey of cutting-edge research on reasoning with language model prompting. We introduce research works with comparisons and summaries and provide systematic resources to help beginners. We also discuss the potential reasons for emerging such reasoning abilities and highlight future research directions. Resources are available at https://github.com/zjunlp/Prompt4ReasoningPapers (updated periodically).",
}