推論は、複雑な問題解決の重要な能力として、医療診断、交渉などのさまざまな現実世界のアプリケーションにバックエンドサポートを提供できます。このペーパーでは、言語モデルのプロンプトとの推論に関する最先端の研究の包括的な調査を提供します。比較と要約で研究作業を紹介し、初心者を支援するための体系的なリソースを提供します。また、このような推論能力を出現する潜在的な理由についても説明し、将来の研究の方向性を強調します。
言語モデルのプロンプトとの推論:調査。
Shuofei Qiao、Yixin OU、Ningyu Zhang、Xiang Chen、Yunzhi Yao、Shumin Deng、Chuanqi Tan、Fei Huang、Huajun Chen。 [abs]、2022.12
大規模な言語モデルの推論に向けて:調査。
Jie Huang、Kevin Chen-Chuan Chang。 [abs]、2022.12
数学的推論のための深い学習の調査。
パン・ルー、リアン・キュー、ウェンハオ・ユ、ショーン・ウェルック、カイ・ウェイ・チャン。 [abs]、2022.12
コンテキスト学習のための調査。
Qingxiu Dong、Lei Li、Damai Dai、Ce Zheng、Zhiyong Wu、Baobao Chang、Xu Sun、Jingjing Xu、Lei Li、Zhifang Sui。 [abs]、2022.12
知識強化されたニューラルマシンの推論:レビュー。
Tanmoy Chowdhury、Chen Ling、Xuchao Zhang、Xujiang Zhao、Gangji Bai、Jian Pei、Haifeng Chen、Liang Zhao。 [abs]、2023.2
拡張言語モデル:調査。
グレゴワール・ミアロン、ロベルト・デスシ、マリア・ロメリ、クリストフォロス・ナルパンティス、ラム・パスヌル、ロベルタ・レールアン、バプティスト・ロジエール、ティモ・シック、ジェーン・ドワイヴィー・ユ、アスリ・セリキルマズ、エドゥアード・グレイブ、ヤン・レコン、トーマス・シェアム。 [abs]、2023.2
大きな言語モデルの知識のライフサイクル:調査。
Boxi Cao、Hongyu Lin、Xianpei Han、Le Sun. [abs]、2023.3
あなたが必要とするすべての迅速なものはありますか?いいえ。指導学習の包括的でより広範な見解。
レンズ・ルー、カイ・チャン、ウェンペン・イン。 [abs]、2023.3
知識表現としての自然言語に対する論理的推論:調査。
Zonglin Yang、Xinya du、Rui Mao、Jinjie Ni、Erik Cambria。 [abs]、2023.3
自然言語の推論、調査。
Fei Yu、Hongbo Zhang、Benyou Wang。 [abs]、2023.3
大規模な言語モデルの調査。
ウェイン・チン・ザオ、クン・Zhou、Junyi Li、Tianyi Tang、Xiaolei Wang、Yupeng Hou、Yingqian Min、Beichen Zhang、Junjie Zhang、Zican Dong、Yifan Du、Chen Yang、Yushuo Chen、Zhipengen Liu、Peiyu Liu、Jian-Yun Nie、Ji-Rong Wen。 [abs]、2023.3
ファンデーションモデルを使用したツール学習。
Yujia Qin、Shengding Hu、Yankai Lin、Weize Chen、Ning Ding、Ganqu Cui、Zheni Zeng、Yufei Huang、Chaojun Xiao、Chi Han、Yi Ren Fung、Yusheng SU、Huadong Wang、Cheng wang、Runchu tian Xu、Zhen Zhang、Yining Ye、Ye、Bowen Li、Ziwei Tang、Jing Yi、Yuzhang Zhu、Zhenning Dai、Lan Yan、Xin Cong、Yaxi Lu、Weilin Zhao、Yuxiang Huang、Junxi Yan、Xu han、Xian Sun、Dahai Li、Jason、hang、hanジ、Zhiyuan Liu、Maosong Sun。 [AB]、2023.4
一連の思考推論の調査:進歩、フロンティア、未来。
Zheng Chu、Jingchang Chen、Qianglong Chen、Weijiang Yu、Tao HE、Haotian Wang、Weihua Peng、Ming Liu、Bing Qin、Ting Liu。 [abs]、2023.9
基礎モデルを使用した推論の調査:概念、方法論、および見通し。
Jiankai Sun、Chuanyang Zheng、Enze Xie、Zhengying Liu、Ruihang Chu、Jianing Qiu、Jiaqi Xu、Mingyu Ding、Hongyang Li、Mengzhe Geng、Yue Wu、Wenhai Wang、Junsong Chen、Zhangyue Liu、Xihui Liu、Yu Li、Hao Dong、Yu Cheng、Ming Zhang、Pheng Ann Heng、Jifeng Dai、Ping Luo、Jingdong Wang、Ji-Rong Wen、Xipeng Qiu、Yike Guo、Hui Xiong、Qun Liu、Zhenguo Li。 [abs]、2023.12
常識的な推論タスクの対照的な説明を促します。
Bhargavi Paranjape、Julian Michael、Marjan Ghazvininejad、Luke Zettlemoyer、Hannaneh Hajishirzi。 [AB]、2021.6
制御可能な常識推論のためのテンプレート充填。
Dheeraj Rajagopal、Vivek Khetan、Bogdan Sacaleanu、Anatole Gershman、Andrew Fano、Eduard Hovy。 [abs]、2021.11
促す一連の思考は、大規模な言語モデルで推論を引き出します。
ジェイソン・ウェイ、Xuezhi Wang、Dale Schuurmans、Maarten Bosma、Brian Ichter、Fei Xia、Ed H. Chi、Quoc V. Le、Denny Zhou。 [AB]、2022.1
大規模な言語モデルはゼロショットの推論です。
コジマ、シクシアン・シェーン・グ、マチェル・リード、ユタカ・マツー、ゆきつさ。 [AB]、2022.5
大規模な言語モデルでの比phor理解のための心理的に情報に基づいたチェーンのプロンプト。
ベン・プリストウスキー、ポール・ティボドー、ノア・グッドマン。 [abs]、2022.9
マルチステップ推論のための複雑さベースのプロンプト。
Yao Fu、Hao Peng、Ashish Sabharwal、Peter Clark、Tushar Khot。 [AB]、2022.10
言語モデルは、多言語の考え方の推論者です。
フレダ・シー、ミラック・スズガン、マルクス・フレイタグ、Xuezhi王、スラジ・スリヴァッツ、ソロウ・ヴォーソウ、ヒョン・ウォン・チョン、YI・テイ、セバスチャン・ルーダー、デニー・Zhou、ディパンジャン・ダス、ジェイソン・ウェイ。 [AB]、2022.10
大規模な言語モデルでの自動チェーンのプロンプト。
Zhuosheng Zhang、Aston Zhang、Mu Li、Alex Smola。 [AB]、2022.10
大規模な言語モデルは、少数の(1)ショットテーブル推論者です。
ウェンフ・チェン。 [AB]、2022.10
コンテキスト学習を介したアルゴリズムの推論を指導します。
Hattie Zhou、Azade Nova、Hugo Larochelle、Aaron Courville、Behnam Neyshabur、Hanie Sedghi。 [AB]、2022.11
大規模な言語モデルについては、考え方をチェーンでアクティブなプロンプトにします。
Shizhe Diao、Pengcheng Wang、Yong Lin、Tong Zhang。 [abs]、2023.2
ラベル付きデータからのチェーンを使用した自動迅速な増強と選択。
Kashun Shum、Shizhe Diao、Tong Zhang。 [abs]、2023.2
ChatGPTを使用したプロンプトエンジニアリングを強化するためのプロンプトパターンカタログ。
ジュール・ホワイト、クチェン・フー、サム・ヘイズ、マイケル・サンドボーン、カルロス・オレア、ヘンリー・ギルバート、アシュラフ・エルナシャール、ジェシー・スペンサー・スミス、ダグラス・C・シュミット。 [abs]、2023.2
CHATGPTコードの品質、リファクタリング、要件の誘発、理性への学習、自己ノートソフトウェアのデザインを記憶するためのCHATGPTプロンプトパターン。
ジュール・ホワイト、サム・ヘイズ、Quchen Fu、Jesse Spencer-Smith、Douglas C Schmidt。 [abs]、2023.3
自己意識で推論し、暗記することを学ぶ。
ジャック・ランチャンティン、シュバム・トスニワル、ジェイソン・ウェストン、アーサー・スズラム、セインバヤール・スフバター。 [abs]、2023.5
計画と解決のプロンプト:大規模な言語モデルによるゼロショットチェーンの推論の改善。
Lei Wang、Wanyu Xu、Yihuai Lan、Zhiqiang Hu、Yunshi Lan、Roy Ka-Wei Lee、Ee-Peng Lim。 [abs]、2023.5
大規模な言語モデルにおける、考え方を超えた効果的なグラフの推論。
Yao Yao、Zuchao Li、Hai Zhao。 [abs]、2023.5
読み直すと、言語モデルの推論が向上します。
Xiaohan Xu、Chongyang Tao、Tao Shen、Can Xu、Hongbo Xu、Guodong Long、Jian-Guang Lou。 [abs]、2023.9
オフライン逆RLによるクエリ依存の迅速な評価と最適化。
Hao Sun、Alihan Huyuk、Mihaela van der Schaar。 [abs]、2023.9
思考の連鎖のための事前に訓練された言語モデルを繰り返し促します。
Boshi Wang、Xiang Deng、Huan Sun。 [AB]、2022.3
選択推論:解釈可能な論理推論のために大規模な言語モデルを活用します。
アントニア・クレスウェル、マレー・シャナハン、イリーナ・ヒギンズ。 [AB]、2022.5
最小のプロンプトは、大規模な言語モデルで複雑な推論を可能にします。
Denny Zhou、NathanaelSchärli、Le Hou、Jason Wei、Nathan Scales、Xuezhi Wang、Dale Schuurmans、Olivier Bousquet、Quoc Le、Ed Chi。 [AB]、2022.5
Maieuticのプロンプト:再帰的な説明を使用した論理的に一貫した推論。
Jaehun Jung、Lianhui Qin、Sean Welleck、Faeze Brahman、Chandra Bhagavatula、Ronan Le Bras、Yejin Choi。 [AB]、2022.5
大きな言語モデルを使用した忠実な推論。
アントニア・クレスウェル、マレー・シャナハン。 [AB]、2022.8
大規模な言語モデルを使用した構成セマンティック解析。
Andrew Drozdov、NathanaelSchärli、EkinAkyürek、Nathan Scales、Xinying Song、Xinyun Chen、Olivier Bousquet、Denny Zhou。 [abs]、2022.9
分解されたプロンプト:複雑なタスクを解くためのモジュラーアプローチ。
Tushar Khot、Harsh Trivedi、Matthew Finlayson、Yao Fu、Kyle Richardson、Peter Clark、Ashish Sabharwal。 [AB]、2022.10
言語モデルの組成ギャップの測定と縮小。
Ofir Press、Muru Zhang、Sewon Min、Ludwig Schmidt、Noah A. Smith、Mike Lewis。 [AB]、2022.10
複雑な質問の分解のための連続したプロンプト。
Dheeru Dua、Shivanshu Gupta、Sameer Singh、Matt Gardner。 [abs]、2022.12
少数のショット推論のためのコンテキスト学習に対する象徴的な表現の影響。
Hanlin Zhang、Yi-Fan Zhang、Li Erran Li、Eric Xing。 [abs]、2022.12
ランバダ:自然言語での自動推論のための後方チェーン。
Seyed Mehran Kazemi、Najoung Kim、Deepti Bhatia、Xin Xu、Deepak Ramachandran。 [abs]、2022.12
反復分解:推論プロセスを監督することにより、科学Q&Aを改善します。
ジャスティン・レパート、ベン・ラッハバッハ、チャーリー・ジョージ、ルーク・ステビング、ジョンウォン・バイン、マギー・アップルトン、アンドレアス・ストゥールミュラー。 [abs]、2023.1
セルフポーリッシュ:問題の改良により、大規模な言語モデルの推論を強化します。
Zhiheng Xi、Senjie Jin、Yuhao Zhou、Rui Zheng、Songyang Gao、Tao Gui、Qi Zhang、Xuanjing Huang。 [abs]、2023.5
フリーテキストの説明を生成するためのヒューマンアイコラボレーションを再構成します。
Sarah Wiegreffe、Jack Hessel、Swabha Swayamdipta、Mark Riedl、Yejin Choi。 [abs]、2021.12
少数のショットコンテキスト内学習における説明の信頼性。
xi ye、グレッグ・デュレット。 [AB]、2022.5
言語モデルを使用した判別器誘導マルチステップ推論。
Muhammad Khalifa、Lajanugen Logeswaran、Moontae Lee、Honglak Lee、Lu Wang。 [abs]、2023.5
RCOT:考え方を逆転させることにより、推論における事実上の矛盾を検出し、修正します。
Tianci Xue、Ziqi Wang、Zhenhailong Wang、Chi Han、Pengfei Yu、Heng Ji。 [abs]、2023.5
自己整合性は、言語モデルの一連の思考推論を改善します。
Xuezhi Wang、Jason Wei、Dale Schuurmans、Quoc Le、Ed H. Chi、Sharan Narang、Aakanksha Chowdhery、Denny Zhou。 [AB]、2022.3
言語モデルをより良い推論者にすることの進歩について。
Yifei Li、Zeqi Lin、Shizhuo Zhang、Qiang Fu、Bei Chen、Jian-Guang Lou、Weizhu Chen。 [AB]、2022.6
マルチステップ推論のための複雑さベースのプロンプト。
Yao Fu、Hao Peng、Ashish Sabharwal、Peter Clark、Tushar Khot。 [AB]、2022.10
大規模な言語モデルは、自己検証の推論者です。
Yixuan Weng、Minjun Zhu、Shizhu He、Kang Liu、Jun Zhao。 [abs]、2022.12
思考の複数のチェーンをめぐるメタの季節によって質問に答える。
Ori Yoran、Tomer Wolfson、Ben Bogin、Uri Katz、Daniel Deutch、Jonathan Berant。 [AB]、2023.4
思考のツリー:大規模な言語モデルでの意図的な問題解決。
Shunyu Yao、Dian Yu、Jeffrey Zhao、Izhak Shafran、Thomas L. Griffiths、Yuan Cao、Karthik Narasimhan。 [abs]、2023.5
マルチエージェントの議論を通じて、言語モデルの事実と推論を改善します。
Yilun du、Shuang Li、Antonio Torralba、Joshua B. Tenenbaum、Igor Mordatch。 [abs]、2023.5
Automix:言語モデルを自動的に混合します
アマン・マダン、プランジャル・アガルワル、アンキット・アナンド、スリビュア・プラナビ・ポタラジュ、スワループ・ミシュラ、ペイ・Zhou、アディティア・グプタ、ディーラジ・ラジャゴパル、カルティク・カッパガンサ、イミング・ヤン、シャマ・ウパダイ、マウサム、マナル・ファークイ。 [abs]、2023.9
思考の逆転:優先誘導逆推論のウォームアップで大規模な言語モデルを強化します。
Jiahao Yuan、Dehui du、Hao Zhang、Zixiang DI、Usman Naseem。 [abs]、[code]、2024.10
スター:推論を伴うブートストラップの推論。
エリック・ゼリクマン、ユハイ・ウー、ノア・D・グッドマン。 [AB]、2022.3
大規模な言語モデルは自己改善できます。
Jiaxin Huang、Shixiang Shane Gu、Le Hou、Yuexin Wu、Xuezhi Wang、Hongkun Yu、Jiawei Han。 [AB]、2022.10
反射:動的な記憶と自己反省を備えた自律剤。
ノア・シン、ベック・ラバッシュ、アシュウィン・ゴピナス。 [abs]、2023.3
自己復活:セルフフィードバックによる反復洗練。
アマン・マダン、ニケト・タンドン、プラハル・グプタ、スカイラー・ハリナン、ルユ・ガオ、サラ・ウィグレフェ、ウリ・アロン、ヌハ・ディリ、シュリマイ・プラブモエ、Yiming Yang、Sean Welleck、Bodhisattwa Prasadumder、Shashank Gupta、Am Yazdanbhh。 [abs]、2023.3
精製所:中間表現に関する推論フィードバック。
Debjit Paul、Mete Ismayilzada、Maxime Peyrard、Beatriz Borges、Antoine Bosselut、Robert West、Boi Faltings。 [AB]、2023.4
言語モデルの推論は、世界モデルを計画しています
Shibo Hao*、Yi Gu*、Haodi MA、Joshua Jiahua Hong、Zhen Wang、Daisy Zhe Wang、Zhiting Hu [abs]、2023.5
ロジックを通じて大規模な言語モデルでゼロショットチェーンの推論を強化します。
Xufeng Zhao、Mengdi Li、Wenhao Lu、Cornelius Weber、Jae Hee Lee、Kun Chu、Stefan Wermter。 [abs] [code]、2024.2
Mind's Eye:シミュレーションを通じて根拠のある言語モデルの推論。
Ruibo Liu、Jason Wei、Shixiang Shane Gu、Te-Yen Wu、Soroush Vosoughi、Claire Cui、Denny Zhou、Andrew M. Dai 。 [AB]、2022.10
コードの言語モデルは、少ないショットの常識学習者です。
アマン・マダン、シュヤン・Zhou、Uri Alon、Yiming Yang、Graham Neubig。 [AB]、2022.10
PAL:プログラム支援言語モデル。
Luyu Gao、Aman Madaan、Shuyan Zhou、Uri Alon、Pengfei Liu、Yiming Yang、Jamie Callan、Graham Neubig。 [AB]、2022.11
促す思考プログラム:数値推論タスクの推論からの計算を解き放つ。
Wenhu Chen、Xueguang MA、Xinyi Wang、William W. Cohen。 [AB]、2022.11
忠実なチェーンの考え方。
Qing Lyu、Shreya Havaldar、Adam Stein、Li Zhang、Delip Rao、Eric Wong、Marianna Apidianaki、Chris Callison-Burch。 [abs]、2023.1
大規模な言語モデルは汎用性の高い分解者です。テーブルベースの推論の証拠と質問を分解します。
Yunhu Ye、Binyuan Hui、Min Yang、Binhua Li、Fei Huang、Yongbin Li。 [abs]、2023.1
合成プロンプト:大規模な言語モデル向けの考え方のデモンストレーションを生成します。
Zhihong Shao、Yeyun Gong、Yelong Shen、Minlie Huang、Nan Duan、Weizhu Chen。 [abs]、2023.2
MathPrompter:大規模な言語モデルを使用した数学的推論。
シマ・イマニ、リアン・デュ、ハーシュ・シュリヴァスタバ。 [abs]、2023.3
推論のための大きな言語モデルを使用した自動モデル選択。
Xu Zhao、Yuxi Xie、Kenji Kawaguchi、Junxian He、Qizhe Xie。 [abs]、2023.5
コードプロンプト:大規模な言語モデルにおける複雑な推論のためのニューラルシンボリック方法。
Yi Hu、Haotong Yang、Zhouchen Lin、Muhan Zhang。 [abs]、2023.5
IFの魔法:コードの大規模な言語モデルにおける因果推論能力の調査。
Xiao Liu、Da Yin、Chen Zhang、Yansong Feng、Dongyan Zhao。 [abs]、2023.5
Zhen Bi、Ningyu Zhang、Yinuo Jiang、Shumin Deng、Guozhou Zheng、Huajun Chen。 [abs]、2023.12
ツールフォーマー:言語モデルは、ツールを使用するように自分自身を教えることができます。
ティモ・シック、ジェーン・ドワイヴィーティ、ロベルト・デスシュ、ロベルタ・レールアン、マリア・ロメリ、ルーク・ゼトルモイヤー、ニコラ・カンセドダ、トーマス・サイロム。 [abs]、2023.2
アート:大規模な言語モデルの自動マルチステップ推論とツール使用。
Bhargavi Paranjape、Scott Lundberg、Sameer Singh、Hannaneh Hajishirzi、Luke Zettlemoyer、Marco Tulio Ribeiro。 [abs]、2023.3
Chameleon:大規模な言語モデルを使用したプラグアンドプレイ構成の推論。
パン・ルー、バオリン・ペン、ハオ・チェン、ミシェル・ギャレー、カイ・ウェイ・チャン、イン・ニアン・ウー、ソンチョン・Zhu、Jianfeng Gao。 [AB]、2023.4
批評家:大規模な言語モデルは、ツール相性的な批評で自己修正できます。
Zibin Gou、Zhihong Shao、Yeyun Gong、Yelong Shen、Yujiu Yang、Nan Duan、Weizhu Chen。 [abs]、2023.5
実行フィードバックを備えた言語モデルをより優れたツール学習者にする。
Shuofei Qiao、Honghao Gui、Huajun Chen、Ningyu Zhang。 [abs]、2023.5
作成者:ツール作成による大規模な言語モデルの抽象的および具体的な推論を解き放つ。
Cheng Qian、Chi Han、Yi R. Fung、Yujia Qin、Zhiyuan Liu、Heng Ji。 [abs]、2023.5
ChatCot:チャットベースの大型言語モデルに関するツールの熟成されたチェーンの推論。
Zhipeng Chen、Kun Zhou、Beichen Zhang、Zheng Gong、Wayne Xin Zhao、Ji-Rong Wen。 [abs]、2023.5
Multitool-Cot:GPT-3は、一連の思考プロンプトを備えた複数の外部ツールを使用できます。
タツーロ・イナバ、ヒロカズ・キヨマル、フェイ・チェン、馬haso林。 [abs]、2023.5
ToolKengpt:ツール埋め込みを介して大規模なツールを使用して凍結言語モデルを増強する
Shibo Hao、Tianyang Liu、Zhen Wang、Zhiting Hu [abs]、2023.5
常識的な推論を促す知識を生成しました。
Jiacheng Liu、Alisa Liu、Ximing Lu、Sean Welleck、Peter West、Ronan Le Bras、Yejin Choi、Hannaneh Hajishirzi。 [AB]、2021.10
Rainier:Commonsense質問の回答のための強化知識の内省。
Jiacheng Liu、Skyler Hallinan、Ximing Lu、Pengfei He、Sean Welleck、Hannaneh Hajishirzi、Yejin Choi。 [AB]、2022.10
大規模な言語モデルからの説明は、小さな推論をより良くします。
Shiyang Li、Jianshu Chen、Yelong Shen、Zhiyu Chen、Xinlu Zhang、Zekun Li、Hong Wang、Jing Qian、Baolin Peng、Yi Mao、Wenhu Chen、Xifeng Yan。 [AB]、2022.10
ピント:迅速な生成された理論的根拠を使用した忠実な言語の推論。
Peifeng Wang、Aaron Chan、Filip Ilievski、Muhao Chen、Xiang Ren。 [AB]、2022.11
TSGP:監視されていない常識的な質問応答のための2段階の生成プロンプト。
Yueqing Sun、Yu Zhang、Le Qi、Qi Shi。 [AB]、2022.11
セマンティック分解を介して、大規模な言語モデルのマルチステップ推論機能を小さなモデルに蒸留します。
Kumar Shridhar、Alessandro Stolfo、Mrinmaya Sachan。 [abs]、2022.12
推論するために小さな言語モデルを教える。
ルーシー・シャーロット・マジスター、ジョナサン・マリンソン、ジャクブ・アダメク、エリック・マルミ、アリアクセイ・セベリン。 [abs]、2022.12
大規模な言語モデルは教師を推論しています。
Namgyu Ho、Laura Schmid、se-young yun。 [abs]、2022.12
多段階の推論に向けて小言語モデルを専門とする。
Yao Fu、Hao Peng、Litu OU、Ashish Sabharwal、Tushar Khot。 [abs]、2023.1
PAD:プログラム支援蒸留は、推論において大きなモデルを専門としています。
Xuekai Zhu、Biqing Qi、Kaiyan Zhang、Xingwei Long、Bowen Zhou。 [abs]、2023.5
MEMPROMPT:展開後にGPT-3を改善するためのメモリ支援プロンプト編集
アマン・マダン、ニケット・タンドン、ピーター・クラーク、イミング・ヤン。 [AB]、2022.1
Logicsolver:論理的な迅速な学習を伴う解釈可能な数学の問題解決に向けて。
Zhicheng Yang、Jinghui Qin、Jiaqi Chen、Liang Lin、Xiaodan Liang。 [AB]、2022.5
選択的な注釈により、言語モデルは少数のショット学習者をより良くします。
Hongjin SU、Jungo Kasai、Chen Henry Wu、Weijia Shi、Tianlu Wang、Jiayi Xin、Rui Zhang、Mari Ostendorf、Luke Zettlemoyer、Noah A. Smith、Tao Yu。 [abs]、2022.9
半構造化された数学的推論のためのポリシーグラデーションによる動的迅速な学習。
パン・ルー、リアン・キュー、カイ・ウェイ・チャン、イン・ニアン・ウー、ソング・チュン・Zhu、タンメイ・ラジプロヒット、ピーター・クラーク、アシュウィン・カリヤン。 [abs]、2022.9
知識集約型のマルチステップの質問に対する考え方の推論を伴うインターリーブ検索。
Harsh Trivedi、Niranjan Balasubramanian、Tushar Khot、Ashish Sabharwal。 [abs]、2022.12
検索との再考:忠実な大規模な言語モデルの推論。
Hangfeng He、Hongming Zhang、Dan Roth。 [abs]、2023.1
Verify-and-Edit:知識が強化されたチェーンの枠組み。
Ruochen Zhao、Xingxuan Li、Shafiq Joty、Chengwei Qin、Lidong Bing。 [abs]、2023.5
言語モデルのカスケード。
デビッド・ドーハン、ウィニー・Xu、エイター・ルーコウィッツ、ジェイコブ・オースティン、デビッド・ビーバー、ラファエル・ゴンティホ・ロペス、ユハイ・ウー、ヘンリック・ミシェルスキー、リフ・A・ザウアス、ジャシャー・ソー・ドリックスタイン、ケビン・マーフィー、チャールズ・サットン。 [AB]、2022.7
説明を学ぶ:科学質問のための思考チェーンを介したマルチモーダル推論。
パン・ルー、スワループ・ミシュラ、トニー・シア、リアン・キュー、カイ・ウェイ・チャン、ソング・チュン・ズー、オイビンド・タフィョルド、ピーター・クラーク、アシュウィン・カリヤン。 [abs]、2022.9
知識グラフ上のマルチモーダルアナロジー推論。
Ningyu Zhang、Lei Li、Xiang Chen、Xiaozhuan Liang、Shumin Deng、Huajun Chen。 [AB]、2022.10
命令finetuned言語モデルのスケーリング。
ヒョンはチョン、ルーフ、シェーン・ロングプレ、バレット・ゾフ、イー・テイ、ウィリアム・フェダス、ユンクアン・リー、Xuezhi王、シッダルタ・ブラフマ属、アルバート・ウェブソン、シクシアン・シェーン・グ、Zhuyun Dai、ミラック・スズガン、Xiny suzgun、Xiny suzgunカストロ・ロス、マリー・ペラト、ケビン・ロビンソン、ダーシャ・ヴァーター、シャラン・ナラン、ガウラフ・ミシュラ、アダムス・ユ、ヴィンセント・ザオ、ヤンピン・ファン、アンドリュー・ダイ、ホンクン・ユ、スラブ・ペトロフ、エド・H・チー、ジェフ・ディーン、ジェイコブ・デヴィン、デニ・ウェック[AB]、2022.10
知識ベースの視覚推論のために、ビジョンモデルと言語モデルの間の相互作用プロンプトを参照してください。
Zhenfang Chen、Qinhong Zhou、Yikang Shen、Yining Hong、Hao Zhang、Chuang Gan。 [abs]、2023.1
言語モデルにおけるマルチモーダルチェーンの推論。
Zhuosheng Zhang、Aston Zhang、Mu Li、Hai Zhao、George Karypis、Alex Smola。 [abs]、2023.2
言語はあなたが必要とするすべてではありません:知覚を言語モデルと調整します。
Shaohan Huang、Li Dong、Wenhui Wang、Yaru Hao、Saksham Singhal、Shuming MA、Tengchao LV、Lei Cui、Owais Khan Mohammed、Qiang Liu、Kriti Aggarwal、Zewen Chi、Johan Bjorck、vishrav chudhharウェイ。 [abs]、2023.2
Visual ChatGpt:Visual Foundationモデルとの会話、描画、編集。
Chenfei Wu、Shengming Yin、Weizhen Qi、Xiaodong Wang、Zecheng Tang、Nan Duan。 [abs]、2023.3
VIPERGPT:推論のためのPython実行による視覚的推論。
DídacSurís、Sachit Menon、Carl Vondrick。 [abs]、2023.3
MM反応:マルチモーダルの推論とアクションのCHATGPTのプロンプト。
Zhengyuan Yang、Linjie Li、Jianfeng Wang、Kevin Lin、Ehsan Azarnasab、Faisal Ahmed、Zicheng Liu、Ce Liu、Michael Zeng、Lijuan Wang。 [abs]、2023.3
プロンプトを介して、大規模な言語モデルのマインド理論のパフォーマンスを向上させます。
島rahimiモガダム、クリストファーJ.ハニー。 [AB]、2023.4
言語モデルはコンテキストの説明から学ぶことができますか?
Andrew K. Lampinen、Ishita Dasgupta、Stephanie Cy Chan、Kory Matthewson、Michael Henry Tessler、Antonia Creswell、James L. McClelland、Jane X. Wang、Felix Hill。 [AB]、2022.4
大規模な言語モデルの緊急能力。
ジェイソン・ウェイ、Yi Tay、Rishi Bommasani、Colin Raffel、Barret Zoph、Sebastian Borgeaud、Dani Yogatama、Maarten Bosma、Denny Zhou、Donald Metzler、エドH. [AB]、2022.6
言語モデルは、推論に対する人間のような内容の影響を示しています。
石田・ダスグプタ、アンドリュー・K・ランピネン、ステファニー・サイ・チャン、アントニア・クレスウェル、ダーシャン・クマラン、ジェームズ・L・マクレランド、フェリックス・ヒル。 [AB]、2022.7
言語モデルの理論的導入アンサンブル。
Xuezhi Wang、Jason Wei、Dale Schuurmans、Quoc Le、Ed Chi、Denny Zhou。 [AB]、2022.7
大規模な言語モデルは本当にプロンプトを理解できますか?否定されたプロンプトを含むケーススタディ。
ジョエル・チャン、ソンヘヨン・イェ、ミンジョン・ソ。 [abs]、2022.9
テキストとパターン:効果的な思考の連鎖のために、タンゴに2つかかります
アマン・マダン、アミール・ヤズダンバフシュ。 [abs]、2022.9
挑戦に挑戦する大手タスクと、チェーンの考え方がそれらを解決できるかどうか。
ミラック・スズガン、ネイサン・スケールズ、ナタナエル・シェルリ、セバスチャン・ゲーマン、Yi Tay、Hyung Won Chung、Aakankha Chowdhery、Quoc V. Le、Ed H. Chi、Denny Zhou、Jason Wei。 [AB]、2022.10
言語モデルは貪欲な推論者です:考え方の体系的な正式な分析。
アブルヘア・サパロフ、彼。 [AB]、2022.10
言語モデルのプライバシーリスクを緩和するための知識の学習。
ジョエル・チャン、ドンキョン・ユン、ソヒー・ヤン、ソンミン・チャ、ムアンテ・リー、ラジャヌゲン・ロゲスワラン、ミンジョン・ソ。 [AB]、2022.10
大規模な言語モデルにおける緊急の類似の推論。
テイラー・ウェッブ、キース・J・ホリオーク、ホンジン・ルー。 [abs]、2022.12
考え方の促しを理解することに向けて:重要なことの経験的研究。
Boshi Wang、Sewon Min、Xiang Deng、Jiaming Shen、You Wu、Luke Zettlemoyer、Huan Sun。 [abs]、2022.12
二度目の考えでは、段階的に考えないでください!ゼロショット推論におけるバイアスと毒性。
Omar Shaikh、Hongxin Zhang、William Held、Michael Bernstein、Diyi Yang。 [abs]、2022.12
Retriver-Augmented Language Modelsの理由はありますか?レトリバーと言語モデルの間の非難ゲーム。
Parishad Behnamghader、Santiago Miret、Siva Reddy。 [abs]、2022.12
GPTがコンテキスト内を学ぶことができるのはなぜですか?言語モデルは、メタオプティマイザーとしてグラジエント降下を密かに実行します。
Damai Dai、Yutao Sun、Li Dong、Yaru Hao、Zhifang Sui、Furu Wei。 [abs]、2022.12
大規模な言語モデルでの言語と思考を分離:認知的視点。
Kyle Mahowald、Anna A. Ivanova、Idan A. Blank、Nancy Kanwisher、Joshua B. Tenenbaum、Evelina Fedorenko。 [abs]、2023.1
大規模な言語モデルは、無関係なコンテキストによって簡単に気を散らすことができます。
フレダ・シー、Xinyun Chen、Kanishka Misra、Nathan Scales、David Dohan、Ed Chi、NathanaelSchärli、Denny Zhou。 [abs]、2023.2
推論、幻覚、および対話性に関するChatGPTのマルチタスク、多言語、マルチモーダル評価。
Yejin Bang、Samuel Cahyawijaya、Nayeon Lee、Wenliang Dai、Dan SU、Bryan Wilie、Holy Lovenia、Ziwei Ji、Tiezheng Yu、Willy Chung、Quyet V. Do、Yan Xu、Pascale Fung。 [abs]、2023.2
ChatGptは、知識のあるが経験の浅いソルバーです。大規模な言語モデルにおける常識的な問題の調査です。
Ning Bian、Xianpei Han、Le Sun、Hongyu Lin、Yaojie Lu、Ben He。 [abs]、2023.3
なぜ段階的に考えるのですか?推論は、経験の地域から生まれます。
ベン・プリストースキー、ノア・D・グッドマン。 [AB]、2023.4
正式な論理に基づいた合成コーパスからの演ductive的推論を学ぶ。
Terufumi Morishita、Gaku Morio、Atsuki Yamaguchi、Yasuhiro sogawa。 [abs]、2023.8
| 推論スキル | ベンチマーク |
|---|---|
| 算数の推論 | GSM8K、SVAMP、ASDIV、AQUA-RAT、MAWPS、ADDSUB、MULTIARITH、SINERSEQ、SINERSOP |
| 常識的な推論 | CommonsenseQa、StrategyQa、Arc、Saycan、Boolqa、Hotpotqa、Openbookqa、Piqa、WikiWhy |
| 象徴的な推論 | 最後の文字の連結、コインフリップ、リバースリスト |
| 論理的推論 | ProofWriter、EntainmentBank、Ruletaker、Clutrr、fld |
| マルチモーダル推論 | Scienceqa |
| その他 | ビッグベンチ、スキャン、考え方のハブ、ミスターベン、ワーフベンチ |
/abs/形式)の抽象リンクを追加します。何か間違ったものを置いても心配しないでください、彼らはあなたのために修正されます。ここであなたの素晴らしい仕事を貢献して宣伝してください!
この調査があなたの研究に役立つと思うなら、引用することを検討してください
@inproceedings{qiao-etal-2023-reasoning,
title = "Reasoning with Language Model Prompting: A Survey",
author = "Qiao, Shuofei and
Ou, Yixin and
Zhang, Ningyu and
Chen, Xiang and
Yao, Yunzhi and
Deng, Shumin and
Tan, Chuanqi and
Huang, Fei and
Chen, Huajun",
booktitle = "Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
month = jul,
year = "2023",
address = "Toronto, Canada",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2023.acl-long.294",
pages = "5368--5393",
abstract = "Reasoning, as an essential ability for complex problem-solving, can provide back-end support for various real-world applications, such as medical diagnosis, negotiation, etc. This paper provides a comprehensive survey of cutting-edge research on reasoning with language model prompting. We introduce research works with comparisons and summaries and provide systematic resources to help beginners. We also discuss the potential reasons for emerging such reasoning abilities and highlight future research directions. Resources are available at https://github.com/zjunlp/Prompt4ReasoningPapers (updated periodically).",
}