人工知能の分野では、OpenaiのReasoning ResearchのディレクターであるNoam Brownが最近、Nvidia GTC会議で考えさせられる発言をしました。彼は、研究者が20年前に正しい方法とアルゴリズムを習得した場合、いくつかの形式の「推論」AIモデルがずっと前に利用可能であった可能性があることを提案しました。この見解は、可能性のある盲点と、人工知能の発達における研究の方向性を無視していることを明らかにしています。

ブラウンは、カーネギーメロン大学でのゲームAI研究の経験をレビューし、特にトップの人間のポーカープレーヤーを倒すことができるプラリブスシステムを開発しています。彼は、このAIシステムの独自性は、単純な暴力コンピューティングに依存するのではなく、その「推論」能力であると強調しました。この推論能力により、AIは、困難に直面するときの人間の思考プロセスと同様に、複雑な状況で深く考えることができます。
OpenaiのAIモデルO1の建築家の1人として、Brownは「テストに関する推論」と呼ばれる革新的な技術を導入しました。この手法により、クエリに応答する前にモデルが「考える」ことができ、追加の計算を通じて何らかの形の「推論」を促進します。この推論モデルは、数学や科学などの分野での精度と信頼性が高いことを示しており、AIの開発のための新しい方向性を開きます。
議論の中で、ブラウンはAI研究における学界の役割についても話しました。大学や大学には一般的にコンピューティングリソースがありませんが、モデルアーキテクチャの設計など、コンピューティング要件が低い領域を探索することにより、学者は依然として重要な役割を果たすことができると考えています。彼は、フロンティア研究所と学術コミュニティの間の協力の重要性を強調し、フロンティア研究所が学術出版物を綿密に監視し、彼らが提唱した議論が十分に説得力があるかどうかを評価することを指摘しました。
ブラウンは、AIベンチマークの分野に特に言及しており、学界がその中で重要な役割を果たすことができると信じています。彼は、AIベンチマークの現在の状況を批判し、これらのテストはしばしば難解な知識を調べ、ほとんどの人が気にするタスクの習熟度にはあまり関連していないことを指摘しました。彼は、これには大量のコンピューティングリソースを必要としないが、モデルの能力と改善の理解を大幅に改善できると考えて、AIベンチマークの改善を求めました。
Brownの発言は、主にO1のような推論モデルではなく、OpenAIに参加する前のギャンブルAI研究の経験に基づいていることに注意する価値があります。彼の見解は、人工知能の分野での研究のための新しい視点を提供し、AIの発展における推論能力の重要性と、学界と最先端の研究所の間の協力の可能性を強調しています。