Le raisonnement, en tant que capacité essentielle pour la résolution de problèmes complexes, peut fournir un support back-end pour diverses applications du monde réel, telles que le diagnostic médical, la négociation, etc. Cet article fournit une étude complète des recherches de pointe sur le raisonnement avec une incitation du modèle linguistique. Nous introduisons des travaux de recherche avec des comparaisons et des résumés et fournissons des ressources systématiques pour aider les débutants. Nous discutons également des raisons potentielles de l'émergence de ces capacités de raisonnement et mettons en évidence les orientations de recherche futures.
Raisonnement avec un modèle de langue Invite: une enquête.
Shuofei Qiao, Yixin OU, Ningyu Zhang, Xiang Chen, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Huajun Chen. [ABS], 2022.12
Vers le raisonnement dans les modèles de grande langue: une enquête.
Jie Huang, Kevin Chen-Chuan Chang. [ABS], 2022.12
Une enquête sur l'apprentissage en profondeur pour le raisonnement mathématique.
Pan Lu, Liang Qiu, Wenhao Yu, Sean Welleck, Kai-Wei Chang. [ABS], 2022.12
Une enquête pour l'apprentissage dans le contexte.
Qingxiu Dong, Lei Li, Damai Dai, CE Zheng, Zhiyong WU, Baobao Chang, Xu Sun, Jingjing Xu, Lei Li, Zhifang Sui. [ABS], 2022.12
Raisonnement des machines neurales améliorées des connaissances: une revue.
Tanmoy Chowdhury, Chen Ling, Xuchao Zhang, Xujiang Zhao, Guangji Bai, Jian Pei, Haifeng Chen, Liang Zhao. [ABS], 2023.2
Modèles de langue augmentée: une enquête.
Grégoire Mialon, Roberto Dessì, Maria Lomeli, Christoforos Nalmpantis, Ram Pasunuru, Roberta Raileanu, Baptiste Rozière, Timo Schick, Jane Dwivedi-yu, Asli Celikyilmaz, Edouard Grave, Yann LeCun, Thomas Scialom. [ABS], 2023.2
Le cycle de vie des connaissances dans les modèles de grande langue: une enquête.
Boxi Cao, Hongyu Lin, Xianpei Han, Le Sun. [ABS], 2023.3
Est-ce que vous avez besoin? Non. Une vision complète et plus large de l'apprentissage de l'enseignement.
Renze Lou, Kai Zhang, Wenpeng Yin. [ABS], 2023.3
Raisonnement logique sur le langage naturel en tant que représentation des connaissances: une enquête.
Zonglin Yang, Xinya Du, Rui Mao, Jinjie Ni, Erik Cambria. [ABS], 2023.3
Raisonnement de la langue de la nature, une enquête.
Fei Yu, Hongbo Zhang, Benyou Wang. [ABS], 2023.3
Une enquête sur les modèles de grande langue.
Wayne Xin Zhao, Kun Zhou, Junyi Li, Tianyi Tang, Xiaolei Wang, Yupeng Hou, Yingqian Min, Beichen Zhang, Junjie Zhang, Zican Dong, Yifan Du, Chen Yang, Yushuo Chen, Zhipeng Chen, Jinhao Jiang, Ruiyang Liu, Peiyu Liu, Jian-Yun Nie, Ji-Rong Wen. [ABS], 2023.3
Apprentissage d'outils avec des modèles de fondation.
Yujia Qin, Shengding Hu, Yankai Lin, Weize Chen, Ning Ding, Ganqu Cui, Zheni Zeng, Yufei Huang, Chaojun Xiao, Chi Han, Yi Reng Bokai Xu, Zhen Zhang, Yining Ye, Bowen Li, Ziwei Tang, Jing Yi, Yuzhang Zhu, Zhenning Dai, Lan Yan, Xin Cong, Yaxi Lu, Weilin Zhao, Yuxiang Huang, Junxi Yan, Xu Han, Xian Sun, Dahai Li, Jason PHANG, THANG Heng Ji, Zhiyuan Liu, Maosong Sun. [ABS], 2023.4
Une enquête sur le raisonnement de la chaîne de pensée: avancées, frontières et avenir.
Zheng Chu, Jingchang Chen, Qianglong Chen, Weijiang Yu, Tao He, Haotian Wang, Weihua Peng, Ming Liu, Bing Qin, Ting Liu. [ABS], 2023.9
Une étude du raisonnement avec les modèles de fondation: concepts, méthodologies et perspectives.
Jiankai Sun, Chuanyang Zheng, Enze Xie, Zhengying Liu, Ruihang Chu, Jianing Qiu, Jiaqi Xu, Mingyu Ding, Hongyang Li, Mengzhe Geng, Yue Wu, Wenhai Wang, Junsong Chen, Zhangyue Yin, Xiaozhe Ren, Jie Fu, Junxian He, Wu Yuan, Qi Liu, Xihui Liu, Yu Li, Hao Dong, Yu Cheng, Ming Zhang, Pheng Ann Heng, Jifeng Dai, Ping Luo, Jingdong Wang, Ji-Rong Wen, Xipeng Qiu, Yike Guo, Hui Xiong, Qun Liu, Zhenguo Li. [ABS], 2023.12
Invitant les explications contrastives des tâches de raisonnement de bon sens.
Bhargavi Paranjape, Julian Michael, Marjan Ghazvininejad, Luke Zettlemoyer, Hannaneh Hajishirzi. [ABS], 2021.6
Remplissage de modèle pour le raisonnement contrôlable de bon sens.
Dheeraj Rajagopal, Vivek Khetan, Bogdan Sacaleanu, Anatole Gershman, Andrew Fano, Eduard Hovy. [ABS], 2021.11
Chaîne de réflexion suscitant un raisonnement dans des modèles de grande langue.
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed H. Chi, Quoc V. LE, Denny Zhou. [ABS], 2022.1
Les grands modèles de langue sont des raisonneurs à tirs zéro.
Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa. [ABS], 2022.5
La chaîne de pensées psychologiquement informée invite à la compréhension des métaphores dans les modèles de gros langues.
Ben Prystawski, Paul Thibodeau, Noah Goodman. [ABS], 2022.9
Invitation basée sur la complexité pour le raisonnement en plusieurs étapes.
Yao Fu, Hao Peng, Ashish Sabharwal, Peter Clark, Tushar Khot. [ABS], 2022.10
Les modèles linguistiques sont des raisonneurs multilingues en chaîne de pensées.
Freda Shi, Mirac Suzgun, Markus Freitag, Xuezhi Wang, Suraj Srivats, Soroush Vosoughi, Hyung ont remporté Chung, Yi Tay, Sebastian Ruder, Denny Zhou, Dipanjan Das, Jason Wei. [ABS], 2022.10
Chaîne de pensée automatique invitant dans les modèles de grande langue.
ZhuoSheng Zhang, Aston Zhang, Mu Li, Alex Smola. [ABS], 2022.10
Les modèles de grandes langues sont quelques-uns (1) des raisonneurs de table à tirs.
Wenhu Chen. [ABS], 2022.10
Enseignement du raisonnement algorithmique via l'apprentissage en contexte.
Hattie Zhou, Azade Nova, Hugo LaRochelle, Aaron Courville, Behnam Neyshabur, Hanie Sedghi. [ABS], 2022.11
Invitation active avec la chaîne de pensées pour les modèles de grands langues.
Shizhe Dioo, Pengcheng Wang, Yong Lin, Tong Zhang. [ABS], 2023.2
Augmentation automatique de l'invite et sélection avec la chaîne de pensées à partir de données étiquetées.
Kashun Shum, Shizhe Dioo, Tong Zhang. [ABS], 2023.2
Un catalogue de motifs rapides pour améliorer l'ingénierie rapide avec Chatgpt.
Jules White, Quchen Fu, Sam Hays, Michael Sandborn, Carlos Olea, Henry Gilbert, Ashraf Elnashar, Jesse Spencer-Smith, Douglas C Schmidt. [ABS], 2023.2
CHATGPT PROCESSEMENTS POUR L'AMÉLIORATION DE LA QUALITÉ DE CODE, de refactorisation, d'élicitation des exigences, de l'anneure pour raisonner et de mémoriser avec la conception de logiciels auto-notés.
Jules White, Sam Hays, Quchen Fu, Jesse Spencer-Smith, Douglas C Schmidt. [ABS], 2023.3
Apprendre à raisonner et à mémoriser avec les notes de soi.
Jack Lanchantin, Shubham Toshniwal, Jason Weston, Arthur Szlam, Sainbayar Sukhbaatar. [ABS], 2023.5
Plan-et-résolution Invite: Amélioration du raisonnement de chaîne de pensée zéro par des modèles de grandes langues.
Lei Wang, Wanyu Xu, Yihuai Lan, Zhiqiang Hu, Yunshi Lan, Roy Ka-Wei Lee, Ee-Peng Lim. [ABS], 2023.5
Au-delà de la chaîne de réflexion, un raisonnement graphique efficace dans les modèles de grande langue.
Yao Yao, Zuchao Li, Hai Zhao. [ABS], 2023.5
La relecture améliore le raisonnement dans les modèles de langue.
Xiaohan Xu, Chongyang Tao, Tao Shen, Can Xu, Hongbo Xu, Guodong Long, Jian-Guang Lou. [ABS], 2023.9
Évaluation et optimisation invite dépendantes de la requête avec RL inverse hors ligne.
Hao Sun, Alihan Huyuk, Mihaela van der Schaar. [ABS], 2023.9
Inviter de manière itérative des modèles de langue pré-formés pour la chaîne de pensée.
Boshi Wang, Xiang Deng, Huan Sun. [ABS], 2022.3
Inférence de sélection: exploiter des modèles de gros langues pour le raisonnement logique interprétable.
Antonia Creswell, Murray Shanahan, Irina Higgins. [ABS], 2022.5
La moindre incitation la plus importante permet un raisonnement complexe dans les modèles de grande langue.
Denny Zhou, Nathanael Schärli, Le Hou, Jason Wei, Nathan Scales, Xuezhi Wang, Dale Schuurmans, Olivier Bousquet, Quoc Le, Ed Chi. [ABS], 2022.5
Invite maieutique: raisonnement logiquement cohérent avec des explications récursives.
Jaehun Jung, Lianhui Qin, Sean Welleck, Faeze Brahman, Chandra Bhagavatula, Ronan le Bras, Yejin Choi. [ABS], 2022.5
Raisonnement fidèle en utilisant de grands modèles de langue.
Antonia Creswell, Murray Shanahan. [ABS], 2022.8
Analyse sémantique de composition avec de grands modèles de langue.
Andrew Drozdov, Nathanael Schärli, Ekin Akyürek, Nathan Scales, Xinying Song, Xinyun Chen, Olivier Bousquet, Denny Zhou. [ABS], 2022.9
Invite décomposée: une approche modulaire pour résoudre les tâches complexes.
Tushar Khot, Harsh Trivedi, Matthew Finlayson, Yao Fu, Kyle Richardson, Peter Clark, Ashish Sabharwal. [ABS], 2022.10
Mesurer et rétrécir l'écart de compositionnalité dans les modèles de langue.
OFir Press, Muru Zhang, Sewon Min, Ludwig Schmidt, Noah A. Smith, Mike Lewis. [ABS], 2022.10
Invitation successive pour décomposer des questions complexes.
Dheeru Dua, Shivanshu Gupta, Sameer Singh, Matt Gardner. [ABS], 2022.12
L'impact des représentations symboliques sur l'apprentissage en contexte pour le raisonnement à quelques coups.
Hanlin Zhang, Yi-Fan Zhang, Li Erran Li, Eric Xing. [ABS], 2022.12
Lambada: chaînage arrière pour raisonnement automatisé en langage naturel.
Seyed Mehran Kazemi, Najoung Kim, Deepti Bhatia, Xin Xu, Deepak Ramachandran. [ABS], 2022.12
Décomposition itérée: améliorer les questions et réponses scientifiques en supervisant les processus de raisonnement.
Justin Reppert, Ben Rachbach, Charlie George, Luke Stebbing, Jungwon Byun, Maggie Appleton, Andreas Stuhlmüller. [ABS], 2023.1
Auto-polonais: améliorer le raisonnement dans les modèles de grande langue via le raffinement des problèmes.
ZhiHeng Xi, Senjie Jin, Yuhao Zhou, Rui Zheng, Songyang Gao, Tao Gui, Qi Zhang, Xuanjing Huang. [ABS], 2023.5
Radéquer la collaboration humaine-AI pour générer des explications en texte libre.
Sarah Wiegreffe, Jack Hessel, Swabha Swayamdipta, Mark Riedl, Yejin Choi. [ABS], 2021.12
Le manque de fiabilité des explications dans l'apprentissage en petit-contexte.
Xi ye, Greg Durrett. [ABS], 2022.5
Raisonnement multi-étapes guidé par le discriminateur avec des modèles de langue.
Muhammad Khalifa, Lajanugen Logeswaran, Moontae Lee, Honglak Lee, Lu Wang. [ABS], 2023.5
RCOT: détecter et rectifier une incohérence factuelle dans le raisonnement en inversant la chaîne de pensées.
Tianci Xue, Ziqi Wang, Zhenhailong Wang, Chi Han, Pengfei Yu, Heng Ji. [ABS], 2023.5
L'auto-cohérence améliore le raisonnement de la chaîne de pensée dans les modèles de langues.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc LE, Ed H. Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou. [ABS], 2022.3
À l'avance de faire de modèles de langue de meilleurs raisonneurs.
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weizhu Chen. [ABS], 2022.6
Invitation basée sur la complexité pour le raisonnement en plusieurs étapes.
Yao Fu, Hao Peng, Ashish Sabharwal, Peter Clark, Tushar Khot. [ABS], 2022.10
Les grands modèles de langue sont des raisonneurs d'auto-vérification.
Yixuan Weng, Minjun Zhu, Shizhu He, Kang Liu, Jun Zhao. [ABS], 2022.12
Répondre aux questions en méta-re-relâche sur plusieurs chaînes de pensée.
Ori Yoran, Tomer Wolfson, Ben Bogin, Uri Katz, Daniel Deutch, Jonathan Berant. [ABS], 2023.4
Arbre de pensées: résolution de problèmes délibérée avec de grands modèles de langage.
Shunyu Yao, Dian Yu, Jeffrey Zhao, Izhak Shafran, Thomas L. Griffiths, Yuan Cao, Karthik Narasimhan. [ABS], 2023.5
Amélioration de la factualité et du raisonnement dans les modèles de langues grâce à un débat multi-agents.
Yilun DU, Shuang Li, Antonio Torralba, Joshua B. Tenenbaum, Igor Mordatch. [ABS], 2023.5
Automix: Mélangez automatiquement les modèles de langage
Aman Madaan, Pranjal Aggarwal, Ankit Anand, Srividya Pranavi Potharaju, Swaroop Mishra, Pei Zhou, Aditya Gupta, Dheeraj Rajagopal, Karthik Kappaganthu, Yiming Yang, Shyam Upadhyay, Mausam, Manaal Faruqui. [ABS], 2023.9
Inversion de la pensée: améliorant les modèles de langue importants avec l'échauffement du raisonnement inversé guidé par les préférences.
Jahahao Yuan, Dehui DU, Hao Zhang, Zixiang DI, Usman Naseem. [ABS], [Code], 2024.10
Star: Raisonnement de bootstrap avec raisonnement.
Eric Zelikman, Yuhuai Wu, Noah D. Goodman. [ABS], 2022.3
Les modèles de grandes langues peuvent s'auto-impression.
Jiaxin Huang, Shixiang Shane GU, Le Hou, Yuexin Wu, Xuezhi Wang, Hongkun Yu, Jiawei Han. [ABS], 2022.10
Réflexion: un agent autonome avec mémoire dynamique et auto-réflexion.
Noah Shinn, Beck Labash, Ashwin Gopinath. [ABS], 2023.3
Auto-rafraîchissement: raffinement itératif avec absence d'auto-alimentation.
Aman Madaan, Niket Tandon, Prakhar Gupta, Skyler Hallinan, Luyu Gao, Sarah Wiegreffe, Uri Alon, Nouha Dziri, Shrimai Prabhumoye, Yiming Yang, Sean Welleck, Bodhisattwa Prasad Majumder, Shashank Gupta, Amir Yazdanbakhhh, Perter Clark. [ABS], 2023.3
REFIGER: Raisier rétroaction sur les représentations intermédiaires.
Debjit Paul, Mete Ismayilzada, Maxime Peyrard, Beatriz Borges, Antoine Boselut, Robert West, Boi Faltings. [ABS], 2023.4
Le raisonnement avec le modèle de langue est la planification avec le modèle mondial
Shibo Hao *, Yi Gu *, Haodi MA, Joshua Jiahua Hong, Zhen Wang, Daisy Zhe Wang, Zhiting Hu [ABS], 2023.5
Amélioration du raisonnement de chaîne de pensée zéro dans les modèles de grande langue à travers la logique.
Xufeng Zhao, Mengdi Li, Wenhao Lu, Cornelius Weber, Jae Hee Lee, Kun Chu, Stefan Wermter. [ABS] [Code], 2024.2
Mind's Eye: Modèle de langage fondé pour le raisonnement par la simulation.
Ruibo Liu, Jason Wei, Shixiang Shane Gu, Te-Yen Wu, Soroush Vosoughi, Claire Cui, Denny Zhou, Andrew M. Dai . [ABS], 2022.10
Les modèles linguistiques de code sont des apprenants de bon sens à quelques coups.
Aman Madaan, Shuyan Zhou, Uri Alon, Yiming Yang, Graham Neubig. [ABS], 2022.10
PAL: Modèles linguistiques assistés par le programme.
Luyu Gao, Aman Madaan, Shuyan Zhou, Uri Alon, Pengfei Liu, Yiming Yang, Jamie Callan, Graham Neubig. [ABS], 2022.11
Programme de pensées Invitation: démontage du calcul du raisonnement pour les tâches de raisonnement numérique.
Wenhu Chen, Xueguang MA, Xinyi Wang, William W. Cohen. [ABS], 2022.11
Raisonnement fidèle de la chaîne de réflexion.
Qing Lyu, Shreya Havaldar, Adam Stein, Li Zhang, Delip Rao, Eric Wong, Marianna Apidianaki, Chris Callison-Burch. [ABS], 2023.1
Les grands modèles de langue sont des décomposeurs polyvalents: décomposer les preuves et les questions pour le raisonnement basé sur la table.
Yunhu Ye, Binyuan Hui, Min Yang, Binhua Li, Fei Huang, Yongbin Li. [ABS], 2023.1
Invitation synthétique: générer des démonstrations de chaîne de pensées pour les modèles de grands langues.
Zhihong Shao, Yeyun Gong, Yelong Shen, Minlie Huang, Nan Duan, Weizhu Chen. [ABS], 2023.2
MathPrompter: raisonnement mathématique utilisant de grands modèles de langue.
Shima Imani, Liang Du, Harsh Shrivastava. [ABS], 2023.3
Sélection automatique du modèle avec des modèles de grande langue pour le raisonnement.
Xu Zhao, Yuxi Xie, Kenji Kawaguchi, Junxian He, Qizhe Xie. [ABS], 2023.5
Invitation du code: une méthode symbolique neuronale pour le raisonnement complexe dans les modèles de gros langues.
Yi Hu, Haotong Yang, Zhouchen Lin, Muhan Zhang. [ABS], 2023.5
La magie de If: enquêter sur les capacités de raisonnement causal dans les modèles de code en grande langue.
Xiao Liu, Da Yin, Chen Zhang, Yansong Feng, Dongyan Zhao. [ABS], 2023.5
Zhen BI, Ningyu Zhang, Yinuo Jiang, Shumin Deng, Guozhou Zheng, Huajun Chen. [ABS], 2023.12
ToolFormer: les modèles de langue peuvent s'apprendre à utiliser des outils.
Timo Schick, Jane Dwivedi-yu, Roberto Dessì, Roberta Raileanu, Maria Lomeli, Luke Zettlemoyer, Nicola Cancedda, Thomas Scialom. [ABS], 2023.2
Art: raisonnement automatique en plusieurs étapes et utilisation d'outils pour les modèles de gros langues.
Bhargavi Paranjape, Scott Lundberg, Sameer Singh, Hannaneh Hajishirzi, Luke Zettlemoyer, Marco Tulio Ribeiro. [ABS], 2023.3
Chameleon: raisonnement de composition plug-and-play avec de grands modèles de langue.
Pan Lu, Baolin Peng, Hao Cheng, Michel Galley, Kai-Wei Chang, Ying Nian Wu, Song-Chun Zhu, Jianfeng Gao. [ABS], 2023.4
Critique: Les modèles de grandes langues peuvent s'auto-corriger avec une critique interactive-outils.
Zhibin Gou, Zhihong Shao, Yeyun Gong, Yelong Shen, Yujiu Yang, Nan Duan, Weizhu Chen. [ABS], 2023.5
Faire de modèles de langage de meilleurs outils des apprenants avec des commentaires d'exécution.
Shuofei Qiao, Honghao Gui, Huajun Chen, Ningyu Zhang. [ABS], 2023.5
Créateur: démêler des raisons abstraites et concrètes de modèles de grands langues grâce à la création d'outils.
Cheng Qian, Chi Han, Yi R. Fung, Yujia Qin, Zhiyuan Liu, Heng Ji. [ABS], 2023.5
Chatcot: raisonnement de chaîne de pensée à l'outil sur les modèles de langage de grande envergure basés sur le chat.
Zhiceng Chen, Kun Zhou, Beichen Zhang, Zheng Gong, Wayne Xin Zhao, Ji-Rong Wen. [ABS], 2023.5
Multitool-Cot: GPT-3 peut utiliser plusieurs outils externes avec une chaîne de réflexion.
Tatsuro Inaba, Hirokazu Kiyomaru, Fei Cheng, Sadao Kurohashi. [ABS], 2023.5
Toolkengpt: augmenter les modèles de langage gelé avec des outils massifs via des incorporations d'outils
Shibo Hao, Tianyang Liu, Zhen Wang, Zhiting Hu [ABS], 2023.5
Généré des connaissances provoquant un raisonnement de bon sens.
Jiacheng Liu, Alisa Liu, Ximing Lu, Sean Wheleck, Peter West, Ronan Le Bras, Yejin Choi, Hannaneh Hajishirzi. [ABS], 2021.10
Rainier: Introspector des connaissances renforcées pour la réponse aux questions de bon sens.
Jiacheng Liu, Skyler Hallinan, Ximing Lu, Pengfei He, Sean Wheleck, Hannaneh Hajishirzi, Yejin Choi. [ABS], 2022.10
Les explications des modèles de grands langues améliorent les petits raisonneurs meilleurs.
Shiyang Li, Jianshu Chen, Yelong Shen, Zhiyu Chen, Xinlu Zhang, Zekun Li, Hong Wang, Jing Qian, Baolin Peng, Yi Mao, Wenhu Chen, Xifeng Yan. [ABS], 2022.10
Pinto: raisonnement fidèle du langage à l'aide de justifications générées par une prompte.
Peifeng Wang, Aaron Chan, Filip Ilievski, Muhao Chen, Xiang Ren. [ABS], 2022.11
TSGP: Invitation générative en deux étapes pour la réponse aux questions de bon sens non supervisé.
Yueqing Sun, Yu Zhang, Le Qi, Qi Shi. [ABS], 2022.11
Distillant les capacités de raisonnement en plusieurs étapes des modèles de grands langues en modèles plus petits via des décompositions sémantiques.
Kumar Shridhar, Alessandro Stolfo, Mrinmaya Sachan. [ABS], 2022.12
Enseigner les petits modèles de langue à la raison.
Lucie Charlotte Magister, Jonathan Mallinson, Jakub Adamek, Eric Malmi, Aliaksei Severyn. [ABS], 2022.12
Les grands modèles de langue sont des enseignants.
Namgyu Ho, Laura Schmid, Se-Young Yun. [ABS], 2022.12
Spécialiser des modèles de langue plus petits vers le raisonnement en plusieurs étapes.
Yao Fu, Hao Peng, Litu ou, Ashish Sabharwal, Tushar Khot. [ABS], 2023.1
PAD: La distillation assistée par le programme spécialise les grands modèles de raisonnement.
Xuekai Zhu, Biqing Qi, Kaiyan Zhang, Xingwei Long, Bowen Zhou. [ABS], 2023.5
MEMPROMPT: Édition rapide assistée par la mémoire pour améliorer le GPT-3 après le déploiement
Aman Madaan, Niket Tandon, Peter Clark, Yiming Yang. [ABS], 2022.1
Logicsolver: vers une résolution de problèmes de mot mathématiques interprétables avec un apprentissage logique amélioré par une invite.
Zhicheng Yang, Jinghui Qin, Jiaqi Chen, Liang Lin, Xiaodan Liang. [ABS], 2022.5
L'annotation sélective rend les modèles de langage meilleurs apprenants à quelques tirs.
Hongjin Su, Jungo Kasai, Chen Henry Wu, Weijia Shi, Tianlu Wang, Jiayi Xin, Rui Zhang, Mari Ostendorf, Luke Zettlemoyer, Noah A. Smith, Tao Yu. [ABS], 2022.9
Apprentissage dynamique rapide via le gradient de politique pour le raisonnement mathématique semi-structuré.
Pan Lu, Liang Qiu, Kai-Wei Chang, Ying Nian Wu, Song-Chun Zhu, Tanmay Rajpurohit, Peter Clark, Ashwin Kalyan. [ABS], 2022.9
Retriel entrelacée avec raisonnement en chaîne pour les questions en plusieurs étapes à forte intensité de connaissances.
Harsh Trivedi, Niranjan Balasubramanian, Tushar Khot, Ashish Sabharwal. [ABS], 2022.12
Repenser avec la récupération: inférence du modèle de grande langue fidèle.
Hangfeng He, Hongming Zhang, Dan Roth. [ABS], 2023.1
Vérification et édition: un cadre de la chaîne de pensées amélioré en connaissances.
Ruochen Zhao, Xingxuan Li, Shafiq Joty, Chengwei Qin, Lidong Bing. [ABS], 2023.5
Cascades du modèle linguistique.
David Dohan, Winnie Xu, Aitor Lewkowycz, Jacob Austin, David Bieber, Raphael Gontijo Lopes, Yuhuai Wu, Henryk Michalewski, Rif A. Saurous, Jascha Sohl-Dickstein, Kevin Murphy, Charles Sutton . [ABS], 2022.7
Apprenez à expliquer: raisonnement multimodal via des chaînes de pensée pour la réponse aux questions scientifiques.
Pan Lu, Swaroop Mishra, Tony Xia, Liang Qiu, Kai-Wei Chang, Song-Chun Zhu, Oyvind Tafjord, Peter Clark, Ashwin Kalyan. [ABS], 2022.9
Raisonnement analogique multimodal sur les graphiques de connaissances.
Ningyu Zhang, Lei Li, Xiang Chen, Xiaozhuan Liang, Shumin Deng, Huajun Chen. [ABS], 2022.10
Mise à l'échelle des modèles de langage au plateau d'instruction.
Hyung a remporté Chung, Le Hou, Shayne Longpre, Barret Zoph, Yi Tay, William Fedus, Yunxuan Li, Xuezhi Wang, Mosfa Dehghani, Siddhartha Brahma, Albert Webson, Shixiang Shane Gu, Zhuyun Dai, Mirac Suzgun, Xinyun Chen, Aakanksha Marie Pellat, Kevin Robinson, Dasha Valter, Sharan Narang, Gaurav Mishra, Adams Yu, Vincent Zhao, Yanping Huang, Andrew Dai, Hongkun Yu, Slave Petrov, Ed H. Chi, Jeff Dean, Jacob Devlin, Adam Roberts, Denny Zhou, Quoc V. Le, Jason wei. [ABS], 2022.10
Voir, Think, Confirmer: Invite interative entre les modèles de vision et de langue pour le raisonnement visuel basé sur les connaissances.
Zhenfang Chen, Qinhong Zhou, Yikang Shen, Yining Hong, Hao Zhang, Chuang Gan. [ABS], 2023.1
Raisonnement multimodal de la chaîne de pensées dans les modèles de langues.
ZhuoSheng Zhang, Aston Zhang, Mu Li, Hai Zhao, George Karypis, Alex Smola. [ABS], 2023.2
La langue n'est pas tout ce dont vous avez besoin: aligner la perception avec les modèles de langue.
Shaohan Huang, Li Dong, Wenhui Wang, Yaru Hao, Saksham Singhal, Shuming MA, Tengchao LV, Lei Cui, Owais Khan Mohammed, Qiang Liu Wei. [ABS], 2023.2
Visual Chatgpt: parler, dessiner et éditer avec des modèles de fondation visuelle.
Chenfei Wu, Shengming Yin, Weizhen Qi, Xiaodong Wang, Zecheng Tang, Nan Duan. [ABS], 2023.3
Vipergpt: inférence visuelle via l'exécution de Python pour le raisonnement.
Dídac Surís, Sachit Menon, Carl Vondrick. [ABS], 2023.3
MM-REACT: invitant le chatppt pour le raisonnement et l'action multimodales.
Zhengyuan Yang, Linjie Li, Jianfeng Wang, Kevin Lin, Ehsan Azarnasab, Faisal Ahmed, Zicheng Liu, CE Liu, Michael Zeng, Lijuan Wang. [ABS], 2023.3
Stimuler les performances de la théorie de l'esprit dans les modèles de grandes langues via l'incitation.
Shima Rahimi Moghaddam, Christopher J. Honey. [ABS], 2023.4
Les modèles linguistiques peuvent-ils apprendre des explications en contexte?
Andrew K. Lampinen, Ishita Dasgupta, Stephanie Cy Chan, Kory Matthewson, Michael Henry Tessler, Antonia Creswell, James L. McClelland, Jane X. Wang, Felix Hill. [ABS], 2022.4
Capacités émergentes des modèles de grande langue.
Jason Wei, Yi Tay, Rishi Bommasani, Colin Raffel, Barret Zoph, Sebastian Borgeaud, Dani Yogatama, Maarten Bosma, Denny Zhou, Donald Metzler, Ed H. Chi, Tatsunori Hashimoto, Oriol Vinyals, Percy Liang, Jeff Dean, William Fedus. [ABS], 2022.6
Les modèles de langue montrent des effets de contenu de type humain sur le raisonnement.
Ishita Dasgupta, Andrew K. Lampinen, Stephanie Cy Chan, Antonia Creswell, Dharshan Kumaran, James L. McClelland, Felix Hill. [ABS], 2022.7
Ensembles de la justification dans des modèles de langue.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc LE, Ed Chi, Denny Zhou. [ABS], 2022.7
Les grands modèles de langue peuvent-ils vraiment comprendre les invites? Une étude de cas avec des invites niées.
Joel Jang, Seongheyon Ye, Minjoon Seo. [ABS], 2022.9
Texte et motifs: pour une chaîne de pensée efficace, il faut deux à Tango
Aman Madaan, Amir Yazdanbakhsh. [ABS], 2022.9
Déterper les tâches de Big Banc et si la chaîne de pensées peut les résoudre.
Mirac Suzgun, Nathan Scales, Nathanael Schärli, Sebastian Gehrmann, Yi Tay, Hyung Won Chung, Aakanksha Chowdhery, Quoc V. Le, Ed H. Chi, Denny Zhou, Jason Wei. [ABS], 2022.10
Les modèles de langue sont des raisonneurs gourmands: une analyse formelle systématique de la chaîne de pensées.
Abulhair Saparov, il. [ABS], 2022.10
Connaissances désapprentissage pour atténuer les risques de confidentialité dans les modèles de langues.
Joel Jang, Dongkeun Yoon, Sohee Yang, Sungmin Cha, Moontae Lee, Lajanugen Logeswaran, Minjoon Seo. [ABS], 2022.10
Raisonnement analogique émergent dans les modèles de grande langue.
Taylor Webb, Keith J. Holyoak, Hongjing Lu. [ABS], 2022.12
Vers la compréhension de l'incitation à la chaîne de pensées: une étude empirique de ce qui compte.
Boshi Wang, Sewon Min, Xiang Deng, Jiaming Shen, You Wu, Luke Zettlemoyer, Huan Sun. [ABS], 2022.12
À la réflexion, ne réfléchissons pas étape par étape! Biais et toxicité dans le raisonnement zéro-shot.
Omar Shaikh, Hongxin Zhang, William Held, Michael Bernstein, Diyi Yang. [ABS], 2022.12
Les modèles de langage de Retriever peuvent-ils raisonner? Le jeu de blâme entre le retriever et le modèle de langue.
Parishad Behnamghader, Santiago Miret, Siva Reddy. [ABS], 2022.12
Pourquoi GPT peut-il apprendre dans le contexte? Les modèles linguistiques effectuent secrètement une descente de gradient en tant que méta-optimissants.
Damai Dai, Yutao Sun, Li Dong, Yaru Hao, Zhifang Sui, Furu Wei. [ABS], 2022.12
Dissocier le langage et la pensée dans des modèles de grande langue: une perspective cognitive.
Kyle Mahowald, Anna A. Ivanova, Idan A. Blank, Nancy Kanwisher, Joshua B. Tenenbaum, Evelina Fedorenko. [ABS], 2023.1
Les modèles de grands langues peuvent être facilement distraits par un contexte non pertinent.
Freda Shi, Xinyun Chen, Kanishka Misra, Nathan Scales, David Dohan, Ed Chi, Nathanael Schärli, Denny Zhou. [ABS], 2023.2
Une évaluation multimodale multimodale et multimodale de Chatgpt sur le raisonnement, l'hallucination et l'interactivité.
Yejin Bang, Samuel Cahyawijaya, Nayeon Lee, Wenliang Dai, Dan Su, Bryan Wilie, Holy Lovenia, Ziwei Ji, Tiezheng Yu, Willy Chung, Quyet V. Do, Yan Xu, Pascale Fung. [ABS], 2023.2
Chatgpt est un solveur compétent mais inexpérimenté: une enquête sur le problème de bon sens dans des modèles de grande langue.
Ning Bian, Xianpei Han, Le Sun, Hongyu Lin, Yaojie Lu, Ben He. [ABS], 2023.3
Pourquoi penser étape par étape? Le raisonnement émerge de la localité de l'expérience.
Ben Prystawski, Noah D. Goodman. [ABS], 2023.4
Apprendre le raisonnement déductif à partir de corpus synthétique basé sur la logique formelle.
Terufumi Morishita, Gaku Morio, Atsuki Yamaguchi, Yasuhiro Sogawa. [ABS], 2023.8
| Compétences de raisonnement | Repères |
|---|---|
| Raisonnement arithmétique | GSM8K, Svamp, Asdiv, Aqua-Rat, Mawps, AddSub, Multiarith, Singleeq, Singleop |
| Raisonnement de bon sens | Communsenseqa, StrategyQA, Arc, SayCan, Boolqa, Hotpotqa, OpenbookQa, Piqa, Wikiwhy |
| Raisonnement symbolique | Concaténation de la dernière lettre, Coin Flip, liste inversée |
| Raisonnement logique | Proofwriter, impatimentbank, ruletaker, clutrr, fld |
| Raisonnement multimodal | Scienceqa |
| Autres | Big-banc, scan, hub en chaîne de pensées, Mr-Ben, Worfbench |
/abs/ format s'il s'agit d'une publication ArXIV).Ne vous inquiétez pas si vous mettez quelque chose de mal, ils seront réparés pour vous. Contribuez et faites la promotion de votre travail formidable ici!
Si vous trouvez cette enquête utile pour vos recherches, veuillez envisager de citer
@inproceedings{qiao-etal-2023-reasoning,
title = "Reasoning with Language Model Prompting: A Survey",
author = "Qiao, Shuofei and
Ou, Yixin and
Zhang, Ningyu and
Chen, Xiang and
Yao, Yunzhi and
Deng, Shumin and
Tan, Chuanqi and
Huang, Fei and
Chen, Huajun",
booktitle = "Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
month = jul,
year = "2023",
address = "Toronto, Canada",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2023.acl-long.294",
pages = "5368--5393",
abstract = "Reasoning, as an essential ability for complex problem-solving, can provide back-end support for various real-world applications, such as medical diagnosis, negotiation, etc. This paper provides a comprehensive survey of cutting-edge research on reasoning with language model prompting. We introduce research works with comparisons and summaries and provide systematic resources to help beginners. We also discuss the potential reasons for emerging such reasoning abilities and highlight future research directions. Resources are available at https://github.com/zjunlp/Prompt4ReasoningPapers (updated periodically).",
}