素晴らしいLLMの自己整合性:大規模な言語モデルにおける自己整合性のキュレーションされたリスト
LLMSの自己整合性と呼ばれるこのリポジトリには、大規模な言語モデルの自己整合性に関するリソースと論文のコレクションが含まれています。
「安全性を保証する道を見ることができません。私たちがこれまでに扱ったことのないことを扱っている大きな不確実性の期間を入力しています。彼らが引き継ぐかもしれないので、これらのことを間違える余裕はありません。 」
問題を提出して、あなたの論文、考え、アイデアを共有してください!
推論するために言語モデルを教える
Denny Zhou、Google Deepmind
[リンク]
2023年9月
人工的な一般情報への道:敵対的なLLM対話からの洞察
エドワードY.チャン
socrasynth.com、[リンク]
2024年3月
自然言語処理のための基礎モデル:メディアを統合する事前に訓練された言語モデル
GerhardPaaß、Sven Giesselbach
人工知能:基礎、理論、アルゴリズム(スプリンガーの自然)、[リンク]
2023年2月16日
GSM8K-コンシテンシー:
GSM8Kベンチマーク上の算術推論の一貫性
shuyue jia
抱きしめる顔2023、[顔を抱き締める] [github]
2023年12月1日
GSM8K :
数学の問題の問題を解決するための検証器をトレーニングします
Karl Cobbe、Vineet Kosaraju、Mohammad Bavarian、Mark Chen、Heewoo Jun、Lukasz Kaiser、Matthias Plappert、Jerry Tworek、Jacob Hilton、Reiichiro Nakano、Christopher Hesse、John Schulman
Arxiv 2021、[Paper] [Github] [ブログ投稿]
2021年11月18日
singleeq :
代数の問題を方程式に解析します
Rik Koncel-Kedziorski、Hannaneh Hajishirzi、Ashish Sabharwal、Oren Etzioni、Siena Dumas Ang
TACL 2015、[Paper] [gitlab]
2015年6月24日
addsub :
動詞の分類で算術語の問題を解決することを学ぶ
Mohammad Javad Hosseini、Hannaneh Hajishirzi、Oren Etzioni、Nate Kushman
EMNLP 2014、[Paper] [gitlab]
2014年10月25日
Multiarith :
一般的な算術語の問題を解決します
サブロ・ロイ、ダン・ロス
EMNLP 2015、[Paper] [WebPage]
2015年9月17日
Aqua-rat :
理論的生成によるプログラム誘導:代数の問題を解決して説明することを学ぶ
Wang Ling、Dani Yogatama、Chris Dyer、Phil Blunsom
ACL 2017、[Paper] [Github]
2017年7月30日
svamp :
NLPモデルは、単純な数学の問題の問題を本当に解決できますか?
Arkil Patel、Satwik Bhattamishra、Navin Goyal
NAACL 2021、[Paper] [Github]
2021年7月6日
Asdiv :
英語の数学語問題解決策を評価して開発するための多様なコーパス
Shen-Yun Miao、Chao-Chun Liang、Keh-Yih Su
ACL 2020、[Paper] [Github]
2020年7月5日
CSQA :
CommonsenseQa:常識的な知識をターゲットにした質問に答える課題
アロン・タルモア、ジョナサン・ヘルツィヒ、ニコラス・ルーリー、ジョナサン・ベラント
NAACL 2019、[Paper] [WebPage]
2019年3月15日
Becel :
Becel:言語モデルの一貫性評価のためのベンチマーク
Myeongjun Jang、Deuk Sin Kwon、Thomas Lukasiewicz
Coling2022、[紙] [Github]
2022年10月12日
言い換えた分隊の質問:
質問に答えるシステムの堅牢性を向上させるための質問の言い換え
Wee Chung Gan、Hwee Tou Ng
ACL 2019、[Paper] [Github]
2019年7月28日
Becel :
Becel:言語モデルの一貫性評価のためのベンチマーク
Myeongjun Jang、Deuk Sin Kwon、Thomas Lukasiewicz
Coling2022、[紙] [Github]
2022年10月12日
LLMSのマルチステップ推論における自己整合性の2つの失敗
アンジェリカ・チェン、ジェイソン・ファン、アリシア・パリッシュ、ヴィシャフ・パドマクマル、チェン・ザオ、サミュエル・R・ボウマン、キュンギョン・チョー
Arxiv 2023、[紙]
2023年10月2日
ムパレル:
MPARAREL:多言語の前提条件モデルの事実上の一貫性
Constanza Fierro、AndersSøgaard
ACLの調査結果:ACL 2022、[Paper] [Github]
2022年3月22日
パラレル:
パラレル:金属::前処理された言語モデルの一貫性の測定と改善
Yanai Elazar、Nora Kassner、Shauli Ravfogel、Abhilasha Ravichander、Eduard Hovy、HinrichSchütze、Yoav Goldberg
TACL 2021、[Paper] [Github] [プレゼンテーション]
2021年5月29日
Math-Sepherd:人間の注釈なしでLLMSを段階的に確認および強化します
Peiyi Wang、Lei Li、Zhihong Shao、Rx Xu、Damai Dai、Yifei Li、Deli Chen、Y.Wu、Zhifang Sui
Arxiv 2023、[紙]
2023年12月28日
基礎モデルを使用した推論の調査
Jiankai Sun、Chuanyang Zheng、Enze Xie、Zhengying Liu、Ruihang Chu、Jianing Qiu、Jiaqi Xu、Mingyu Ding、Hongyang Li、Mengzhe Geng、Yue Wu、Wenhai Wang、Junsong Chen、Zhangyue Liu、Xihui Liu、Yu Li、Hao Dong、Yu Cheng、Ming Zhang、Pheng Ann Heng、Jifeng Dai、Ping Luo、Jingdong Wang、Ji-Rong Wen、Xipeng Qiu、Yike Guo、Hui Xiong、Qun Liu、Zhenguo li Li
arxiv 2023、[紙] [github]
2023年12月26日
クエリと応答の増強は、ドメインの数学の推論一般化を助けることができません
Chengpeng Li、Zheng Yuan、Hongyi Yuan、Guanting Dong、Kemeng Lu、Jiancan Wu、Chuanqi Tan、Xiang Wang、Chang Zhou
arxiv 2023、[紙] [github]
2023年11月1日
メタマス:大規模な言語モデルのためのあなた自身の数学的質問をブートストラップする
Longhui Yu、Weisen Jiang、Han Shi、Jincheng Yu、Zhengying Liu、Yu Zhang、James T. Kwok、Zhenguo Li、Adrian Weller、Weiyang Liu
arxiv 2023、[紙] [github]
2023年10月9日
大規模な言語モデルは、自己検証を伴うより良い推論です
Yixuan Weng、Minjun Zhu、Fei Xia、Bin Li、Shizhu He、Shengping Liu、Bin Sun、Kang Liu、Jun Zhao
EMNLP 2023調査結果、[紙] [Github]
2023年10月19日
言語モデルのプロンプトとの推論:調査
Shuofei Qiao、Yixin OU、Ningyu Zhang、Xiang Chen、Yunzhi Yao、Shumin Deng、Chuanqi Tan、Fei Huang、Huajun Chen
ACL 2023、[Paper] [Github]
2023年9月18日
大規模な言語モデルで数学的推論を学ぶことに関する関係のスケーリング
Zheng Yuan、Hongyi Yuan、Chengpeng Li、Guanting Dong、Keming Lu、Chuanqi Tan、Chang Zhou、Jingren Zhou
arxiv 2023、[紙] [github]
2023年8月3日
大規模な言語モデルは、無関係なコンテキストによって簡単に気を散らすことができます
フレダ・シー、Xinyun Chen、Kanishka Misra、Nathan Scales、David Dohan、Ed Chi、NathanaelSchärli、Denny Zhou
ICML 2023、[Paper] [Github]
2023年6月6日
大規模な言語モデルの推論に向けて:調査
Jie Huang、Kevin Chen-Chuan Chang
ACL 2023の調査結果、[紙] [Github]
2023年5月26日
自己復活:セルフフィードバックによる反復洗練
アマン・マダン、ニケト・タンドン、プラハル・グプタ、スカイラー・ハリナン、ルユ・ガオ、サラ・ウィグレフェ、ウリ・アロン、ヌハ・ジリ、シリマイ・プラブモイ、Yiming Yang、Shashank Gupta、Bodhisattwa Prasadumder、Katherine Hermannクラーク
arxiv 2023、[紙] [github] [webpage]
2023年5月25日
自己復活:セルフフィードバックによる反復洗練
アマン・マダン、ニケト・タンドン、プラハル・グプタ、スカイラー・ハリナン、ルユ・ガオ、サラ・ウィグレフェ、ウリ・アロン、ヌハ・ジリ、シリマイ・プラブモイ、Yiming Yang、Shashank Gupta、Bodhisattwa Prasadumder、Katherine Hermannクラーク
Arxiv 2023、[Paper] [Webサイト] [Github] [Demo]
2023年5月25日
段階的にサンプリングしましょう:LLMSを使用した効率的な推論に対する適応整合性
Pranjal Aggarwal、Aman Madaan、Yiming Yang、Mausam
Arxiv 2023、[Paper] [Webサイト] [Github]
2023年5月19日
自己整合性は、言語モデルの一連の思考推論を改善します
Xuezhi Wang、Jason Wei、Dale Schuurmans、Quoc Le、Ed Chi、Sharan Narang、Aakanksha Chowdhery、Denny Zhou
ICLR 2023、[紙]
2023年3月7日
チェーンオブサブは、大規模な言語モデルで推論を引き出します
ジェイソン・ウェイ、Xuezhi Wang、Dale Schuurmans、Maarten Bosma、Brian Ichter、Fei Xia、Ed Chi、Quoc Le、Denny Zhou
ニューリップス2022、[紙]
2022年1月28日
大規模な言語モデルの信頼性を保証するための意味的な一貫性
Harsh Raj、Vipul Gupta、Domenic Rosati、Subhabrata Majumdar
Arxiv 2023、[紙]
2023年8月17日
セマンティックな一貫性を介した大規模な言語モデルの信頼性の測定
Harsh Raj、Domenic Rosati、Subhabrata Majumdar
ML Safety Workshop、Neurips2022、[Paper]
2022年11月28日
ゼロショットタスクの一般化の迅速な一貫性
チャントZhou、Junxian He、Xuezhe Ma、Taylor Berg-Kirkpatrick、Graham Neubig
ACLの調査結果:EMNLP 2022、[Paper] [Github]
2022年12月27日
正確でありながら一貫性がありませんか?言語理解モデルに関する一貫性分析
Myeongjun Jang、Deuk Sin Kwon、Thomas Lukasiewicz
arxiv 2021、[紙]
2021年8月15日
セマンティックな類似性の進化 - 調査
Dhivya Chandrasekaran、Vijay Mago
ACMコンピューティング調査2021、[Paper]
2021年1月30日
自然言語の推論を通じて、事前に訓練された言語モデルの自己整合性とパフォーマンスを向上させる
エリック・ミッチェル、ジョセフ・ノー、シヤン・リー、ウィル・アームストロング、アナント・アガルワル、パトリック・リュー、チェルシー・フィン、クリストファー・マニング
EMNLP 2022、[Paper] [Webサイト] [Github]
2022年11月21日
RCOT:考え方を逆転させることにより、推論における事実上の矛盾を検出して修正する
Tianci Xue、Ziqi Wang、Zhenhailong Wang、Chi Han、Pengfei Yu、Heng Ji
Arxiv 2023、[紙]
2023年10月2日
P-Adapters:多様なプロンプトを使用して、言語モデルから事実情報を堅牢に抽出する
ベンジャミン・ニューマン、プラフルラ・クマール・チュービー、ナズニーン・ラジャニ
ICLR 2022、[Paper] [Github]
2022年4月19日
どの言語モデルが知っているかをどうやって知ることができますか?
Zhengbao Jiang、Frank F. Xu、Jun Araki、Graham Neubig
TACL 2020、[Paper] [Github]
2020年5月3日
Biomedgpt:ビジョン、言語、マルチモーダルタスクのための統一されたジェネラリストの生物医学的生成事前訓練トランス
Kai Zhang、Jun Yu、Eashan Adhikarla、Rong Zhou、Zhiling Yan、Yixin Liu、Zhengliang Liu、Lifang HE、Brian Davison、Xiang Li、Hui Ren、Sunyang Fu、James Zou、Wei Liu、Jing Huang、chen chen Quanzheng Li、Hongfang Liu、Lichao Sun
arxiv 2024、[紙] [github]
2024年1月9日
大規模な言語モデルは医学的な質問について推論できますか?
ヴァレンティン・リーヴィン、クリストファー・エゲベルク・ハザー、アンドレアス・ゲルト・モッツフェルト、オレ・ウィンサー
arxiv 2023、[紙] [github]
2023年12月24日
ジェネラリストの生物医学的AIに向けて
タオ・トゥ、シェコーフ・アジツィ、ダニー・ドリス、マイク・シェーケルマン、モハメド・アミン、ピ・チュアン・チャン、アンドリュー・キャロル、チャック・ラウ、リュタロ・タンノ、イラ・クナ、バジル・ムスタファ、アーカンシャ・チョウドヘリー、ユンリウォン、サニーヴィルマニ、クリストファー・セムターズ、Sサラ・マフダヴィ、ブラッドリー・グリーン、エワ・ドミノウスカ、ブレイズ・アグエラ・イ・アルカス、ジョエル・バラル、デール・ウェブスター、グレッグ・S・コラド、ヨシ・マチアス、カラン・シンハル、ピート・フィレンツ、
arxiv 2023、[紙] [github]
2023年7月26日
llava-med:一日で生物医学のための大規模な言語とビジョンのアシスタントをトレーニングする
Chunyuan Li、Cliff Wong、Sheng Zhang、Naoto Usuyama、Haotian Liu、Jianwei Yang、Tristan Naumann、Hoifung Poon、Jianfeng Gao
arxiv 2023、[紙] [github]
2023年6月1日
大規模な言語モデルを使用した専門家レベルの医療質問に向けて
Karan Singhal、Tao Tu、Juraj Gottweis、Rory Sayres、Ellery Wulczyn、Le Hou、Kevin Clark、Stephen Pfohl、Heather Cole-Lewis、Darlene Neal、Mike Schaekermann、Amy Wang、Mohamed Amin、 Dominowska、Blaise Aguera Y Arcas、Nenad Tomasev、Yun Liu、Renee Wong、Christopher Semturs、S。SaraMahdavi、Joelle Barral、Dale Webster、Greg S. Corrado、Yossi Matias、Shekoofeh azizi、Alan Karthikesalingam、Vivekamam、vivekamam、vivenagam
Arxiv 2023、[紙]
2023年5月16日
大規模な言語モデルは臨床知識をエンコードします
Karan Singhal、Shekoofeh Azizi、Tao Tu、S。SaraMahdavi、Jason Wei、Hyung Win Chung、Nathan Scales、Ajay Tanwani、Heather Cole-Lewis、Stephen Pfohl、Perry Payne、Martin ceneviratne、Paul Gamble、a awakly、a awdhene、awakinフィリップ・マンスフィールド、ブレイズ・アグエラ・イ・アルカス、デール・ウェブスター、グレッグ・S・コラド、ヨシ・マティアス、キャサリン・チョウ、ジュラジ・ゴットヴィス、ネナド・トマセフ、ユンリウ、アルビン・ラジコマー、ジョエル・バルラル、クリストファー・セムタルス、アラン・カルシュケアは
自然、[紙]
2022年12月26日
マルチモーダルファンデーションモデル:専門家から汎用アシスタントまで
Chunyuan Li、Zhe Gan、Zhengyuan Yang、Jianwei Yang、Linjie Li、Lijuan Wang、Jianfeng Gao
Arxiv 2023、[Paper] [WebPage]
2023年9月18日