Das Argumentieren als wesentliche Fähigkeit für komplexe Problemlösungen kann Back-End-Unterstützung für verschiedene reale Anwendungen wie medizinische Diagnose, Verhandlung usw. bieten. Dieses Papier bietet eine umfassende Übersicht über die modernste Forschung zur Argumentation mit Sprachmodell. Wir stellen Forschungsarbeiten mit Vergleiche und Zusammenfassungen ein und bieten systematische Ressourcen zur Unterstützung von Anfängern. Wir diskutieren auch die potenziellen Gründe für die Entstehung solcher Argumentationsfähigkeiten und unterstreichen zukünftige Forschungsrichtungen.
Argumentation mit Sprachmodell Aufforderung: Eine Umfrage.
Shuofei Qiao, Yixin Ou, Ningyu Zhang, Xiang Chen, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Huajun Chen. [ABS], 2022.12
Zum Denken in Großsprachmodellen: Eine Umfrage.
Jie Huang, Kevin Chen-Chuan Chang. [ABS], 2022.12
Eine Übersicht über das tiefe Lernen für mathematisches Denken.
Pan Lu, Liang Qiu, Wenhao Yu, Sean Welleck, Kaiwei Chang. [ABS], 2022.12
Eine Umfrage zum Kontextlernen.
Qingxiu Dong, Lei Li, Damai Dai, CE Zheng, Zhiyong Wu, Baobao Chang, Xu Sun, Jingjing Xu, Lei Li, Zhifang Sui. [ABS], 2022.12
Kenntnisverstärkte Argumentation für neuronale Maschine: Eine Überprüfung.
Tanmoy Chowdhury, Chen Ling, Xuchao Zhang, Xujiang Zhao, Guangji Bai, Jian Pei, Haifeng Chen, Liang Zhao. [ABS], 2023.2
Erweiterte Sprachmodelle: Eine Umfrage.
Grégoire Mialon, Roberto Dessì, Maria Lomeli, Christoforos Nalmpantis, Ram Pasunuru, Roberta Raileanu, Baptiste Rozière, Timo Schick, Jane Dwivedi-yu, Asli Celikyilmaz, Edouard Grave, Yann Lecun, Thomasicun. [ABS], 2023.2
Der Lebenszyklus des Wissens in großen Sprachmodellen: Eine Umfrage.
Boxi Cao, Hongyu Lin, Xianpei Han, Le Sun. [ABS], 2023.3
Ist prompt alles, was Sie brauchen? Nein. Eine umfassende und breitere Sichtweise des Unterrichtslernens.
Renze Lou, Kai Zhang, Wenpeng Yin. [ABS], 2023.3
Logisches Denken über die natürliche Sprache als Wissensrepräsentation: Eine Umfrage.
Zonglin Yang, Xinya du, Rui Mao, Jinjie Ni, Erik Cambria. [ABS], 2023.3
Natursprachgründung, eine Umfrage.
Fei Yu, Hongbo Zhang, Benyou Wang. [ABS], 2023.3
Eine Übersicht über große Sprachmodelle.
Wayne Xin Zhao, Kun Zhou, Junyi Li, Tianyi Tang, Xiaolei Wang, Yupeng Hou, Yingqian Min, Beichen Zhang, Junjie Zhang, Zican Dong, Yifan Du, Chen Yang, Yushuo Chen, Zhipeng Chen, Jinhao Jiang, Ruiyang Ren, Yifan Li, Xinyu Tang, Zikang Liu, Peiyu Liu, Jian-yun Nie, Ji-Rong Wen. [ABS], 2023.3
Werkzeuglernen mit Grundmodellen.
Yujia Qin, Shengding Hu, Yankai Lin, Weize Chen, Ning Ding, Ganqu Cui, Zheni Zeng, Yufei Huang, Chaojun Xiao, Chi Han, Yi Ren Fung, Yusheng Su, Huadong Wang, Cheng Qian, Runchu Tian, Kunlun Zhu, Shihao Liang, Xingyu Shen, Bokai Xu, Zhen Zhang, Yining Ye, Bowen Li, Ziwei Tang, Jing Yi, Yuzhang Zhu, Zhenning Dai, Lan Yan, Xin Cong, Yaxi Lu, Weilin Zhao, Yuxiang Huang, Junxi Yan, Xu Han, Xian Sun, Dahai Li, Jason Phang, Cheng Yang, Tongshuang Wu, Heng Ji, Zhiyuan Liu, Maosong Sun. [ABS], 2023.4
Eine Übersicht über die Kette des Denkens: Fortschritte, Grenzen und Zukunft.
Zheng Chu, Jingchang Chen, Qianglong Chen, Weijiang Yu, Tao He, Haotian Wang, Weihua Peng, Ming Liu, Bing Qin, Ting Liu. [ABS], 2023.9
Eine Übersicht über die Argumentation mit Grundmodellen: Konzepte, Methoden und Aussichten.
Jiangai Sun, Chuanyang Zheng, Enze Xie, Zhengying Liu, Ruihang Chu, Jianing Qiu, Jiaqi Xu, Mingyu Ding, Hongyang Li, Mengzhe Geng, Yue Wu, Wenhai Wang, Junsong Chen, Zhangyue Yin, Xiaozhe, Xiaozhe, Xiaozhe, Jie, Jie, Jie, Yin, Xiaozhe, Xiaozhe, Xiaozhe, Yin, Xiaozhe, Xiaozhe, Yin, Xiaozhe, Xiaozhe, Yin, Xiaozhe, Xiaozhe, Jie, Jie, Yin, Xiaozhe, Xiaozhe, Yin, Xiaozhe, Xiaozhe, Yin, Xiaozhe, Xiaozhe, Yin, Xiaozhe. Liu, Xihui Liu, Yu Li, Hao Dong, Yu Cheng, Ming Zhang, Pheng Ann Heng, Jifeng Dai, Ping Luo, Jingdong Wang, Ji-Rong Wen, Xipeng Qiu, Yike Guo, Hui Xiong, Qun Liu, Zhenguo Li. [ABS], 2023.12
Aufmerksamkeit auf kontrastive Erklärungen für Commonsense -Argumentationsaufgaben.
Bhargavi Paranjape, Julian Michael, Marjan Ghazvininejad, Luke Zettlemoyer, Hannaneh Hajishirzi. [ABS], 2021.6
Vorlagefüllung für kontrollierbare Argumentation.
Dheeraj Rajagopal, Vivek Khetan, Bogdan Sacaleanu, Anatole Gershman, Andrew Fano, Eduard Hovy. [ABS], 2021.11
Kette von Denkweisen, die dazu führen, dass sie in großer Sprachmodellen Begründung ausgelöst haben.
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed H. Chi, Quoc V. Le, Denny Zhou. [ABS], 2022.1
Großsprachige Modelle sind Null-Shot-Vernunft.
Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa. [ABS], 2022.5
Psychologisch informierte Kette des Gedankens für das Verständnis von Metapher in Großsprachenmodellen.
Ben Prystawski, Paul Thibodeau, Noah Goodman. [ABS], 2022.9
Komplexitätsbasierte Aufforderung zum mehrstufigen Denken.
Yao Fu, Hao Peng, Ashish Sabharwal, Peter Clark, Tushar Khot. [ABS], 2022.10
Sprachmodelle sind mehrsprachige Vernunftketten.
Freda Shi, Mirac Suzgun, Markus Freitag, Xuezhi Wang, Suraj Srivats, Soroush Voughi, Hyung gewann Chung, Yi Tay, Sebastian Ruder, Denny Zhou, Dipanjan Das, Jason Wei. [ABS], 2022.10
Automatische Denkkette, die in großen Sprachmodellen auffordert.
Zhuoscheng Zhang, Aston Zhang, Mu Li, Alex Smola. [ABS], 2022.10
Große Sprachmodelle sind nur wenige (1) -Shot-Tabellen-Gründe.
Wenhu Chen. [ABS], 2022.10
Unterrichten von algorithmischem Denken durch das Lernen in Kontext.
Hattie Zhou, Azade Nova, Hugo Larochelle, Aaron Courville, Behnam Neyshabur, Hanie Sedghi. [ABS], 2022.11
Aktive Aufforderung mit dem Gedanken der Kette für große Sprachmodelle.
Shizhe Diao, Pengcheng Wang, Yong Lin, Tong Zhang. [ABS], 2023.2
Automatische Auswahl und Auswahl mit kennzeichneten Daten.
Kashun Shum, Shizhe Diao, Tong Zhang. [ABS], 2023.2
Ein sofortiger Musterkatalog zur Verbesserung der schnellen Engineering mit ChatGPT.
Jules White, Quchen Fu, Sam Hays, Michael Sandborn, Carlos Olea, Henry Gilbert, Ashraf Elnashar, Jesse Spencer-Smith, Douglas C Schmidt. [ABS], 2023.2
ChatGPT-Eingabeaufforderungsmuster zur Verbesserung der Codequalität, Refactoring, Anforderungen Auslöser, Anlearing, um zu begründen und sich mit selbstnotesd-Softwaredesign zu merken.
Jules White, Sam Hays, Quchen Fu, Jesse Spencer-Smith, Douglas C Schmidt. [ABS], 2023.3
Lernen zu lernen und sich mit Selbstnotionen auswendig zu lernen.
Jack Lanchantin, Shubham Toshniwal, Jason Weston, Arthur Szlam, Sainbayar Sukhbaatar. [ABS], 2023.5
Aufforderung zur Planung und Lösung: Verbesserung der Null-Shot-Kette des Gedankens durch Großsprachenmodelle.
Lei Wang, Wanyu Xu, Yihuai Lan, Zhiqiang Hu, Yunshi Lan, Roy Ka-Di Lee, Ee-Peng Lim. [ABS], 2023.5
Jenseits der durchdachten Kette, wirksames Argumentieren in großer Sprachmodellen.
Yao yao, zuchao li, hai zhao. [ABS], 2023.5
Das erneute Lesen verbessert das Denken in Sprachmodellen.
Xiaohan Xu, Chongyang Tao, Tao Shen, Can Xu, Hongbo Xu, Guodong Long, Jian-Guang Lou. [ABS], 2023.9
Abfrageabhängige Einstellung und Optimierung von Abfrage mit Offline-Inverse RL.
Hao Sun, Alihan Huyuk, Mihaela van der Schaar. [ABS], 2023.9
Iterativ formulierte vorgeborene Sprachmodelle für die Kette der Denkweise.
Boshi Wang, Xiang Deng, Huan Sun. [ABS], 2022.3
Auswahlinterferenz: Ausnutzung großer Sprachmodelle für interpretierbare logische Argumentation.
Antonia Creswell, Murray Shanahan, Irina Higgins. [ABS], 2022.5
Die am wenigsten zu meistversteigende Erscheinung ermöglicht komplexe Argumentation in Großsprachenmodellen.
Denny Zhou, Nathanael Schärli, Le Hou, Jason Wei, Nathan Scales, Xuezhi Wang, Dale Schuurmans, Olivier Bousquet, Quoc Le, Ed Chi. [ABS], 2022.5
Maieutische Aufforderung: Logisch konsequentes Denken mit rekursiven Erklärungen.
Jaehun Jung, Lianhui Qin, Sean Welleck, Faeze Brahman, Chandra Bhagavatula, Ronan Le Bras, Yejin Choi. [ABS], 2022.5
Treue Argumentation mit großer Sprachmodellen.
Antonia Creswell, Murray Shanahan. [ABS], 2022.8
Kompositionelle semantische Parsen mit großartigen Modellen.
Andrew Drozdov, Nathanael Schärli, Ekin Akyürk, Nathan Scales, Xinying Song, Xinyun Chen, Olivier Bousquet, Denny Zhou. [ABS], 2022.9
Zersetzt Aufforderung: Ein modularer Ansatz zur Lösung komplexer Aufgaben.
Tushar Khot, Harsh Trivedi, Matthew Finlayson, Yao Fu, Kyle Richardson, Peter Clark, Ashish Sabharwal. [ABS], 2022.10
Messen und Verengung der Kompositionalitätslücke in Sprachmodellen.
Ofir Press, Muru Zhang, Sewon Min, Ludwig Schmidt, Noah A. Smith, Mike Lewis. [ABS], 2022.10
Aufeinanderfolgende Aufforderung zum Zerlegen komplexer Fragen.
Dheeru Dua, Shivanshu Gupta, Sameer Singh, Matt Gardner. [ABS], 2022.12
Die Auswirkungen symbolischer Darstellungen auf das Kontextlernen auf wenige Argumentation.
Hanlin Zhang, Yi-Fan Zhang, Li Erran Li, Eric Xing. [ABS], 2022.12
Lambada: Rückwärtskettung für automatisiertes Denken in der natürlichen Sprache.
Seyed Mehran Kazemi, Najoung Kim, Deepti Bhatia, Xin Xu, Deepak Ramachandran. [ABS], 2022.12
Iterierte Zersetzung: Verbesserung der Wissenschaft und Antworten der Wissenschaft durch Überwachung von Argumentationsprozessen.
Justin Reppert, Ben Rachbach, Charlie George, Luke Stebbing, Jungwon Byun, Maggie Appleton, Andreas Stuhlmüller. [ABS], 2023.1
Selbstpolizei: Verbessern Sie die Argumentation in Großsprachenmodellen durch Problemraffinierung.
Zhiheng XI, Senjie Jin, Yuhao Zhou, Rui Zheng, Songyang Gao, Tao Gui, Qi Zhang, Xuanjing Huang. [ABS], 2023.5
Umfristung der Menschen-AI-Zusammenarbeit zur Erstellung von Erklärungen für freie Text.
Sarah Wiegreffe, Jack Hessel, Swabha Swayamdipta, Mark Riedl, Yejin Choi. [ABS], 2021.12
Die Unzuverlässigkeit von Erklärungen in wenigen Schüssen im Kontextlernen.
Xi ye, Greg Durrett. [ABS], 2022.5
Diskriminator-gesteuerte mehrstufige Argumentation mit Sprachmodellen.
Muhammad Khalifa, Lajanugen Logeswaran, Moontae Lee, Honglak Lee, Lu Wang. [ABS], 2023.5
RCOT: Erkennung und korrigierende sachliche Inkonsistenz im Argumentieren durch Umkehrung der Gedankenkette.
Tianci Xue, Ziqi Wang, Zhenhailong Wang, Chi Han, Pengfei Yu, Heng Ji. [ABS], 2023.5
Selbstkonsistenz verbessert die Kette des Denkens in Sprachmodellen.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed H. Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou. [ABS], 2022.3
Über den Vormarsch der Sprachmodelle zu besseren Dennzeichen.
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weishu Chen. [ABS], 2022.6
Komplexitätsbasierte Aufforderung zum mehrstufigen Denken.
Yao Fu, Hao Peng, Ashish Sabharwal, Peter Clark, Tushar Khot. [ABS], 2022.10
Großsprachenmodelle sind Dennzeichen mit Selbstverifizierung.
Yixuan Weng, Minjun Zhu, Shizhu He, Kang Liu, Jun Zhao. [ABS], 2022.12
Beantwortung von Fragen durch Meta-Bewertung über mehrere Gedankenketten.
Ori Yoran, Tomer Wolfson, Ben Bogin, Uri Katz, Daniel Deutch, Jonathan Berant. [ABS], 2023.4
Baum der Gedanken: Absichtliche Problemlösung mit großen Sprachmodellen.
Shunyu Yao, Dian Yu, Jeffrey Zhao, Izhak Shafran, Thomas L. Griffiths, Yuan Cao, Karthik Narasimhan. [ABS], 2023.5
Verbesserung der Fakten und des Denkens in Sprachmodellen durch mehrfache Debatten.
Yilun du, Shuang Li, Antonio Torralba, Joshua B. Tenenbaum, Igor Mordatch. [ABS], 2023.5
Automix: Automatisch Sprachmodelle mischen
Aman Madaan, Pranjal Aggarwal, Ankit Anand, Srividya Pranavi Potharaju, Swaroop Mishra, Pei Zhou, Aditya Gupta, Dheeraj Rajagopal, Karthik Kappaganthu, Yiming Yang, Shyam Upadhyay, Mausam, Mausam, Manaal, Manaal, Manaal, Manaal, Manaal, Manaal, Manaal, Manaal, Manaal, Manaal, Manaal, Manaal, Manaal, Manaal, Mausam, Manaal. [ABS], 2023.9
Umkehrung des Denkens: Verbesserung großer Sprachmodelle mit bevorzugen geführtem Umkehrarging-Aufwärmen.
Jiahao Yuan, Dehui du, Hao Zhang, Zixiang DI, Usman Naseem. [ABS], [Code], 2024.10
Star: Bootstrapping -Argumentation mit Argumentation.
Eric Zelikman, Yuhuai Wu, Noah D. Goodman. [ABS], 2022.3
Große Sprachmodelle können sich selbst verbessern.
Jiaxin Huang, Shixiang Shane Gu, Le Hou, Yuexin Wu, Xuezhi Wang, Hongkun Yu, Jiawei Han. [ABS], 2022.10
Reflexion: Ein autonomer Agent mit dynamischem Gedächtnis und Selbstreflexion.
Noah Shinn, Beck Labash, Ashwin Gopinath. [ABS], 2023.3
Self-Refine: iterative Verfeinerung mit Selbstversattung.
Aman Madaan, Niket Tandon, Prakhar Gupta, Skyler Hallinan, Luyu Gao, Sarah Wiegreffe, Uri Alon, Nouha Dziri, Shrimai Prabhumoye, Yiming Yang, Sean Welleck, Bodhisattwa Prasad Majumder, Shashank Gupta, Amir Yazdanbakhsh, Peter Clark. [ABS], 2023.3
Raffiner: Feedback zu Zwischendarstellungen.
Debjit Paul, Mete Ismayilzada, Maxime Pyrard, Beatriz Borges, Antoine Bosselut, Robert West, Boi Faltings. [ABS], 2023.4
Das Denken mit Sprachmodell ist die Planung mit dem Weltmodell
Shibo Hao*, Yi Gu*, Haodi MA, Joshua Jiahua Hong, Zhen Wang, Daisy Zhe Wang, Zhiting Hu [ABS], 2023.5
Verbesserung der Kette des Gedankenkettens in Großsprachenmodellen durch Logik.
Xufeng Zhao, Mengdi Li, Wenhao Lu, Cornelius Weber, Jae Hee Lee, Kun Chu, Stefan Wermter. [ABS] [Code], 2024.2
Mind's Eye: Großenmodell -Argumentation durch Simulation.
Ruibo liu, Jason Wei, Shixiang Shane Gu, Te-Yen Wu, Soroush Voughi, Claire Cui, Denny Zhou, Andrew M. Dai . [ABS], 2022.10
Sprachmodelle von Code sind nur wenige Lernende von Commonsense.
Aman Madaan, Shuyan Zhou, Uri Alon, Yiming Yang, Graham Neuubig. [ABS], 2022.10
PAL: Programmen-unterstützte Sprachmodelle.
Luyu Gao, Aman Madaan, Shuyan Zhou, Uri Alon, Pengfei Liu, Yiming Yang, Jamie Callan, Graham Neuubig. [ABS], 2022.11
Prozessprogramm Aufforderung: Entwirrung der Berechnung von Argumentation für numerische Argumentationsaufgaben.
Wenhu Chen, Xueguang MA, Xinyi Wang, William W. Cohen. [ABS], 2022.11
Gläubige Argumentationskette.
Qing Lyu, Shreya Havaldar, Adam Stein, Li Zhang, Delip Rao, Eric Wong, Marianna Apidianaki, Chris Callison-Burch. [ABS], 2023.1
Großsprachige Modelle sind vielseitige Zersetzer: Zersetzung von Beweisen und Fragen für Tabellen-basierte Argumentation.
Yunhu Ye, Binyuan Hui, Min Yang, Binhua Li, Fei Huang, Yongbin Li. [ABS], 2023.1
Synthetische Aufforderung: Erzeugung von Demonstrationen der Kette der Gedanken für große Sprachmodelle.
Zhihong Shao, Yeyun Gong, Yelong Shen, Minlie Huang, Nan Duan, Weishu Chen. [ABS], 2023.2
Mathprompter: Mathematische Argumentation unter Verwendung von großsprachigen Modellen.
Shima Imani, Liang du, harsh Shrivastava. [ABS], 2023.3
Automatische Modellauswahl mit großen Sprachmodellen für die Argumentation.
Xu Zhao, Yuxi Xie, Kenji Kawaguchi, Junxian He, Qizhe Xie. [ABS], 2023.5
Codeaufforderung: Eine neuronale symbolische Methode für komplexes Denken in Großsprachenmodellen.
Yi Hu, Haotong Yang, Zhouchen Lin, Muhan Zhang. [ABS], 2023.5
Die Magie von if: Untersuchung von kausalen Argumentationsfähigkeiten in großen Sprachmodellen von Code.
Xiao Liu, da Yin, Chen Zhang, Yansong Feng, Dongyan Zhao. [ABS], 2023.5
Zhen Bi, Ningyu Zhang, Yinuo Jiang, Shumin Deng, Guozhou Zheng, Huajun Chen. [ABS], 2023.12
Toolformer: Sprachmodelle können sich selbst beibringen, Tools zu verwenden.
Timo Schick, Jane Dwivedi-yu, Roberto Dessì, Roberta Raileanu, Maria Lomeli, Luke Zettlemoyer, Nicola Cancedda, Thomas Scialom. [ABS], 2023.2
Kunst: Automatisches mehrstufiges Denken und Werkzeuggebrauch für große Sprachmodelle.
Bhargavi Paranjape, Scott Lundberg, Sameer Singh, Hannaneh Hajishirzi, Luke Zettlemoyer, Marco Tulio Ribeiro. [ABS], 2023.3
Chamäleon: Plug-and-Play-Kompositionsregen mit großen Sprachmodellen.
Pan Lu, Baolin Peng, Hao Cheng, Michel Galeley, Kaiwei Chang, Ying Nian Wu, Song-Chun Zhu, Jianfeng Gao. [ABS], 2023.4
Kritiker: Große Sprachmodelle können sich mit Werkzeuginteraktiven kritisieren.
Zhibin Gou, Zhihong Shao, Yeyun Gong, Yelong Shen, Yujiu Yang, Nan Duan, Weizhu Chen. [ABS], 2023.5
Sprachmodelle zu besseren Werkzeuglernern mit Ausführungsfeedback machen.
Shuofei Qiao, Honghao GUI, Huajun Chen, Ningyu Zhang. [ABS], 2023.5
Schöpfer: Entfernt abstrakte und konkrete Argumentation von großer Sprachmodellen durch Werkzeugerstellung.
Cheng Qian, Chi Han, Yi R. Pilg, Yujia Qin, Zhiyuan Liu, Heng Ji. [ABS], 2023.5
CHATCOT: Tools-ausgelöste Kette des Gedankens auf Chat-basierte Großsprachenmodelle.
Zhipg Chen, Kun Zhou, Beichen Zhang, Zheng Gong, Wayne Xin Zhao, Ji-Rong Wen. [ABS], 2023.5
Multitool-COT: GPT-3 kann mehrere externe Werkzeuge mit Gedankenkette verwenden.
Tatsuro Inaba, Hirokazu Kiyomaru, Fei Cheng, Sadao Kurohashi. [ABS], 2023.5
Toolkengpt: Ergänzen gefrorene Sprachmodelle mit massiven Werkzeugen über Tool -Einbettungen
Shibo Hao, Tianyang Liu, Zhen Wang, Zhiting Hu [ABS], 2023.5
Erzeugte Kenntnisse, die für vernünftige Argumentation veranlasst werden.
Jiachen Liu, Alisa Liu, Ximing Lu, Sean Welleck, Peter West, Ronan Le Bras, Yejin Choi, Hannaneh Hajishirzi. [ABS], 2021.10
Rainier: Verstärktes Wissensinspektor für vernünftige Frage zur Beantwortung von Gewohnheitsfragen.
Jiachen Liu, Skyler Hallinan, Ximing Lu, Pengfei He, Sean Welleck, Hannaneh Hajishirzi, Yejin Choi. [ABS], 2022.10
Erklärungen aus Großsprachenmodellen machen kleine Gründe besser.
Shiyang Li, Jianshu Chen, Yelong Shen, Zhiyu Chen, Xinlu Zhang, Zekun Li, Hong Wang, Jing Qian, Baolin Peng, Yi Mao, Wenhu Chen, Xifeng Yan. [ABS], 2022.10
Pinto: Treue Sprachgelände unter Verwendung von rationalen Rationalen von prompt erzeugten.
Peifeng Wang, Aaron Chan, Filip Ilievski, Muhao Chen, Xiang Ren. [ABS], 2022.11
TSGP: Zweistufige generative Aufforderung zur Beantwortung von unbeaufsichtigtem gesunden Menschenverstand.
Yueqing Sun, Yu Zhang, Le Qi, Qi Shi. [ABS], 2022.11
Den mehrstufigen Argumentationsfunktionen großer Sprachmodelle in kleinere Modelle über semantische Zerlegungen einhalten.
Kumar Shridhar, Alessandro Stolfo, Mrinmaya Sachan. [ABS], 2022.12
Kleinsprachenmodelle zur Vernunft unterrichten.
Lucie Charlotte Magister, Jonathan Mallinson, Jakub Adamek, Eric Malmi, Aliaksei Severy. [ABS], 2022.12
Großsprachige Modelle sind Argumentationslehrer.
Namgyu Ho, Laura Schmid, Se-Young Yun. [ABS], 2022.12
Spezialisierte kleinere Sprachmodelle auf mehrstufige Argumentation.
Yao Fu, Hao Peng, Litu Ou, Ashish Sabharwal, Tushar Khot. [ABS], 2023.1
PAD: Program-unterstützte Destillation spezialisiert große Modelle im Argumentieren.
Xuekai Zhu, Biqing Qi, Kaiyan Zhang, Xingwei Long, Bowen Zhou. [ABS], 2023.5
Memprompt: Speicherunterstützte schnelle Bearbeitung zur Verbesserung des GPT-3 nach dem Einsatz
Aman Madaan, Niket Tandon, Peter Clark, Yiming Yang. [ABS], 2022.1
Logicsolver: Auf dem Weg zu interpretierbarem Mathematikwort Problem Lösung mit logischem Eingabeaufforderung.
Zhicheng Yang, Jinghui Qin, Jiaqi Chen, Liang Lin, Xiaodan Liang. [ABS], 2022.5
Selektive Annotation macht Sprachmodelle besser wenige Lernende.
Hongjin Su, Jungo Kasai, Chen Henry Wu, Weijia Shi, Tianlu Wang, Jiyi Xin, Rui Zhang, Mari Ostendorf, Luke Zettlemoyer, Noah A. Smith, Tao Yu. [ABS], 2022.9
Dynamisches promptes Lernen über politische Gradienten für semi-strukturiertes mathematisches Denken.
Pan Lu, Liang Qiu, Kaiwei Chang, Ying Nian Wu, Song-Chun Zhu, Tanmay Rajpurohit, Peter Clark, Ashwin Kalyan. [ABS], 2022.9
Verschachtung des Abrufs mit dem Gedankenketten für wissensintensive mehrstufige Fragen.
Harsh Trivedi, Niranjan Balasubramanian, Tushar Khot, Ashish Sabharwal. [ABS], 2022.12
Überdenken mit dem Abruf: treu großer Sprachmodellinferenz.
Hangfeng er, Hongming Zhang, Dan Roth. [ABS], 2023.1
Verify-and-Edit: Ein wissensbedingter Ketten-Dunfym-Framework.
Ruochen Zhao, Xingxuan Li, Shafiq Joty, Chengwei Qin, Lidong Bing. [ABS], 2023.5
Sprachmodellkaskaden.
David Dohan, Winnie Xu, Aitor Lewkowycz, Jacob Austin, David Bieber, Raphael Gontijo Lopes, Yuhuai Wu, Henryk Michalewski, Rif A. Saurous, Jascha Sohl-Dickstein, Kevin Murphy, Charles Sutton . [ABS], 2022.7
Erklären Sie zu erklären: Multimodales Denken über Gedankenketten zur Beantwortung von Fragen der wissenschaftlichen Frage.
Pan Lu, Swaroop Mishra, Tony Xia, Liang Qiu, Kaiwei Chang, Song-Chun Zhu, Oyvind Tafjord, Peter Clark, Ashwin Kalyan. [ABS], 2022.9
Multimodales analoges Denken über Wissensgrafiken.
Ningyu Zhang, Lei Li, Xiang Chen, Xiaozhuan Liang, Shumin Deng, Huajun Chen. [ABS], 2022.10
Skalierung von Sprachmodellen mit Anweisungen.
Hyung Won Chung, Le Hou, Shayne Longpre, Barret Zoph, Yi Tay, William Fedus, Yunxuan Li, Xuezhi Wang, Mostafa Dehghani, Siddhartha Brahma, Albert Webson, Shixiang Shane Gu, Zhuyun Dai, Mirac Suzgun, Xinyun Chen, Aakanksha Chowdhery, Alex Castro-Ros, Marie Pellat, Kevin Robinson, Dasha Valter, Sharan Narang, Gaurav Mishra, Adams Yu, Vincent Zhao, Yanping Huang, Andrew Dai, Hongkun Yu, Slav Petrov, Ed H. Chi, Jeff Dean, Jacob Devlin, Adam Roberts, Denny, Quoc V. Le, Jason [ABS], 2022.10
Siehe, denken Sie nach, bestätigen Sie: Vergleich zwischen Vision- und Sprachmodellen für wissensbasierte visuelle Argumentation.
Zhenfang Chen, Qinhong Zhou, Yikang Shen, Yining Hong, Hao Zhang, Chuang Gan. [ABS], 2023.1
Multimodales Denken in den Gedanken in Sprachmodellen.
Zhuosheng Zhang, Aston Zhang, Mu Li, Hai Zhao, George Karypis, Alex Smola. [ABS], 2023.2
Sprache ist nicht alles, was Sie brauchen: Die Wahrnehmung mit Sprachmodellen ausrichten.
Shaohan Huang, Li Dong, Wenhui Wang, Yaru Hao, Saksham Singhal, Shuming Ma, Tengchao Lv, Lei Cui, Owais Khan Mohammed, Qiang Liu, Kriti Aggarwal, Zewen Chi, Johan Bjorck, Vishrav Chaudhary, Subhojit Som, Xia Song, Furu Wei. [ABS], 2023.2
Visual Chatgpt: Reden, Zeichnen und Bearbeiten mit visuellen Fundamentmodellen.
Chenfei Wu, Shengming Yin, Weizhen Qi, Xiaodong Wang, Zecheng Tang, Nan Duan. [ABS], 2023.3
VIPERGPT: Visuelle Inferenz über Python -Ausführung zur Argumentation.
Dídac Surís, Sachit Menon, Carl Vondrick. [ABS], 2023.3
MM-Reaktion: Aufforderung an Chatgpt für multimodales Denken und Handeln.
Zhengyuan Yang, Linjie Li, Jianfeng Wang, Kevin Lin, Ehsan Azarnasab, Faisal Ahmed, Zicheng Liu, CE Liu, Michael Zeng, Lijuan Wang. [ABS], 2023.3
Steigerung der Leistung der Theorie der Mind in Großsprachmodellen durch Aufforderung.
Shima Rahimi Moghaddam, Christopher J. Honey. [ABS], 2023.4
Können Sprachmodelle aus Erklärungen im Kontext lernen?
Andrew K. Lampinen, Ishita Dasgupta, Stephanie Cy Chan, Kory Matthewson, Michael Henry Tessler, Antonia Creswell, James L. McClelland, Jane X. Wang, Felix Hill. [ABS], 2022.4
Aufstrebende Fähigkeiten großer Sprachmodelle.
Jason Wei, Yi Tay, Rishi Bommasani, Colin Raffel, Barret Zoph, Sebastian Borgeaud, Dani Yogatama, Maarten Bosma, Denny Zhou, Donald Metzler, Ed H. Chi, Tatsunori Hashimoto, Oriol Vyals, Percy Liand, Jeff Dean, William Fedus. [ABS], 2022.6
Sprachmodelle zeigen menschliche Inhaltseffekte auf die Argumentation.
Ishita Dasgupta, Andrew K. Lampinen, Stephanie Cy Chan, Antonia Creswell, Dharshan Kumaran, James L. McClelland, Felix Hill. [ABS], 2022.7
Begründete Ensembles in Sprachmodellen.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Denny Zhou. [ABS], 2022.7
Können große Sprachmodelle wirklich Eingabeaufforderungen verstehen? Eine Fallstudie mit negierten Eingabeaufforderungen.
Joel Jang, Seongheyon Ye, Minjoon Seo. [ABS], 2022.9
Text und Muster: Für eine effektive Gedankenkette braucht es zwei bis Tango
Aman Madaan, Amir Yazdanbakhsh. [ABS], 2022.9
Herausfordernde Aufgaben mit großem Bench und der Überdachtung der Kette kann sie lösen.
Mirac Suzgun, Nathan Scales, Nathanael Schärli, Sebastian Gehrmann, Yi Tay, Hyung gewann Chung, Aakanksha Chowdhery, Quoc V. Le, Ed H. Chi, Denny Zhou, Jason Wei. [ABS], 2022.10
Sprachmodelle sind gierige Vernunft: Eine systematische formale Analyse der Gedankenkette.
Abulhair Saparov, er. [ABS], 2022.10
Wissen, das die Verminderung von Datenschutzrisiken in Sprachmodellen verurteilt.
Joel Jang, Dongkeun Yoon, Sohee Yang, Sungmin Cha, Moontae Lee, Lajanugen Logeswaran, Minjoon Seo. [ABS], 2022.10
Emergentes analoges Denken in Großsprachmodellen.
Taylor Webb, Keith J. Holyoak, Hongjing Lu. [ABS], 2022.12
Um die Kette des Gedankens zu verstehen: Eine empirische Untersuchung dessen, worauf es ankommt.
Boshi Wang, Sewon Min, Xiang Deng, Jiaming Shen, Sie Wu, Luke Zettlemoyer, Huan Sun. [ABS], 2022.12
Denken wir beim zweiten Gedanken nicht Schritt für Schritt nach! Voreingenommenheit und Toxizität im Null-Shot-Argumentation.
Omar Shaikh, Hongxin Zhang, William Hold, Michael Bernstein, Diyi Yang. [ABS], 2022.12
Kann retriever-ausgereifte Sprachmodelle begründen? Das Schuldspiel zwischen dem Retriever und dem Sprachmodell.
Parishad Behnamghader, Santiago Miret, Siva Reddy. [ABS], 2022.12
Warum kann GPT in Kontexten lernen? Sprachmodelle führen heimlich Gradientenabstieg als Meta-Optimierer durch.
Damai Dai, Yutao Sun, Li Dong, Yaru Hao, Zhifang Sui, Furu Wei. [ABS], 2022.12
Dissoziierung von Sprache und Gedanken in Großsprachenmodellen: eine kognitive Perspektive.
Kyle Mahowald, Anna A. Ivanova, Idan A. Blank, Nancy Kanwisher, Joshua B. Tenenbaum, Evelina Fedorenko. [ABS], 2023.1
Großsprachige Modelle können durch irrelevanten Kontext leicht abgelenkt werden.
Freda Shi, Xinyun Chen, Kanishka Misra, Nathan Scales, David Dohan, Ed Chi, Nathanael Schärli, Denny Zhou. [ABS], 2023.2
Eine Multitasking, mehrsprachige, multimodale Bewertung von ChatGPT über Argumentation, Halluzination und Interaktivität.
Yejin Bang, Samuel Cahyawijaya, Nayeon Lee, Wenliang Dai, Dan Su, Bryan Wilie, Holy Lovenia, Ziwei Ji, Tiezheng Yu, Willy Chung, Quyet V. Do, Yan Xu, Pascale Fung. [ABS], 2023.2
Chatgpt ist ein sachkundiger, aber unerfahrener Solver: eine Untersuchung des gemeinnützigen Problems in Großsprachmodellen.
Ning Bian, Xianpei Han, Le Sun, Hongyu Lin, Yaojie Lu, Ben He. [ABS], 2023.3
Warum Schritt für Schritt denken? Argumentation ergibt sich aus Erfahrung der Erfahrung.
Ben Prystawski, Noah D. Goodman. [ABS], 2023.4
Deduktives Denken aus synthetischen Korpus basierend auf formaler Logik.
Terufumi Morishita, Gaku Morio, Atsuki Yamaguchi, Yasuhiro Sogawa. [ABS], 2023.8
| Argumentationsfähigkeiten | Benchmarks |
|---|---|
| Arithmetisches Denken | GSM8K, SVAMP, ASDIV, AQUA-RAT, MAWPS, addSub, Multiarith, SingleEQ, SingleOP |
| Commonsense -Argumentation | Commonsenseqa, Strategyqa, Arc, Saycan, Boolqa, Hotpotqa, Openbookqa, Piqa, Wikiwhy |
| Symbolisches Denken | Letzte Buchstabe Verkettung, Münzflip, Rückwärtsliste |
| Logische Argumentation | ProofWriter, EntrainmentBank, Ruletaker, Clutrr, FLD |
| Multimodales Denken | Scienceqa |
| Andere | Big-Bench, Scan, Hub-von Kette, MR-Ben, Worfbench |
/abs/ Format, wenn es sich um eine Arxiv -Veröffentlichung handelt).Mach dir keine Sorgen, wenn du etwas falsch stimmst, sie werden für dich behoben. Tragen Sie einfach bei und bewerben Sie Ihre großartige Arbeit hier!
Wenn Sie diese Umfrage für Ihre Forschung nützlich finden, erwägen Sie bitte das Zitieren
@inproceedings{qiao-etal-2023-reasoning,
title = "Reasoning with Language Model Prompting: A Survey",
author = "Qiao, Shuofei and
Ou, Yixin and
Zhang, Ningyu and
Chen, Xiang and
Yao, Yunzhi and
Deng, Shumin and
Tan, Chuanqi and
Huang, Fei and
Chen, Huajun",
booktitle = "Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
month = jul,
year = "2023",
address = "Toronto, Canada",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2023.acl-long.294",
pages = "5368--5393",
abstract = "Reasoning, as an essential ability for complex problem-solving, can provide back-end support for various real-world applications, such as medical diagnosis, negotiation, etc. This paper provides a comprehensive survey of cutting-edge research on reasoning with language model prompting. We introduce research works with comparisons and summaries and provide systematic resources to help beginners. We also discuss the potential reasons for emerging such reasoning abilities and highlight future research directions. Resources are available at https://github.com/zjunlp/Prompt4ReasoningPapers (updated periodically).",
}