在人工智能领域,OpenAI的推理研究主管Noam Brown最近在英伟达GTC大会上发表了一番引人深思的言论。他提出,如果研究人员在20年前就掌握了正确的方法和算法,某些形式的“推理”AI模型可能早已问世。这一观点揭示了人工智能发展历程中可能存在的盲点和被忽视的研究方向。

Brown回顾了他在卡内基梅隆大学从事博弈AI研究的经历,特别是开发出能够击败顶级人类扑克选手的Pluribus系统。他强调了这种AI系统的独特之处在于其“推理”能力,而非依赖简单的暴力计算。这种推理能力使得AI能够在复杂情境下进行深入思考,类似于人类在面临难题时的思考过程。
作为OpenAI的AI模型o1的架构师之一,Brown介绍了一种名为“测试时推理”的创新技术。这种技术允许模型在响应查询之前进行“思考”,通过额外的计算来驱动某种形式的“推理”。这种推理模型在数学和科学等领域表现出更高的准确性和可靠性,为AI的发展开辟了新的方向。
在讨论中,Brown也谈到了学术界在AI研究中的角色。尽管高校普遍缺乏计算资源,但他认为学术界仍然可以通过探索对计算要求较低的领域,如模型架构设计,来发挥重要作用。他强调了前沿实验室和学术界之间合作的重要性,指出前沿实验室会密切关注学术出版物,并评估其提出的论点是否具有足够的说服力。
Brown特别提到了AI基准测试领域,认为学术界可以在其中发挥重要影响。他批评当前AI基准测试的现状,指出这些测试往往考察的是深奥的知识,与大多数人关心的任务熟练程度相关性较差。他呼吁改进AI基准测试,认为这不需要大量的计算资源,但能够显著提高对模型能力和改进的理解。
值得注意的是,Brown的言论主要基于他在加入OpenAI之前从事博弈AI研究的经历,而非像o1这样的推理模型。他的观点为人工智能领域的研究提供了新的视角,强调了推理能力在AI发展中的重要性,以及学术界和前沿实验室之间合作的潜力。