在人工智能領域,OpenAI的推理研究主管Noam Brown最近在英偉達GTC大會上發表了一番引人深思的言論。他提出,如果研究人員在20年前就掌握了正確的方法和算法,某些形式的“推理”AI模型可能早已問世。這一觀點揭示了人工智能發展歷程中可能存在的盲點和被忽視的研究方向。

Brown回顧了他在卡內基梅隆大學從事博弈AI研究的經歷,特別是開發出能夠擊敗頂級人類撲克選手的Pluribus系統。他強調了這種AI系統的獨特之處在於其“推理”能力,而非依賴簡單的暴力計算。這種推理能力使得AI能夠在復雜情境下進行深入思考,類似於人類在面臨難題時的思考過程。
作為OpenAI的AI模型o1的架構師之一,Brown介紹了一種名為“測試時推理”的創新技術。這種技術允許模型在響應查詢之前進行“思考”,通過額外的計算來驅動某種形式的“推理”。這種推理模型在數學和科學等領域表現出更高的準確性和可靠性,為AI的發展開闢了新的方向。
在討論中,Brown也談到了學術界在AI研究中的角色。儘管高校普遍缺乏計算資源,但他認為學術界仍然可以通過探索對計算要求較低的領域,如模型架構設計,來發揮重要作用。他強調了前沿實驗室和學術界之間合作的重要性,指出前沿實驗室會密切關注學術出版物,並評估其提出的論點是否具有足夠的說服力。
Brown特別提到了AI基準測試領域,認為學術界可以在其中發揮重要影響。他批評當前AI基準測試的現狀,指出這些測試往往考察的是深奧的知識,與大多數人關心的任務熟練程度相關性較差。他呼籲改進AI基準測試,認為這不需要大量的計算資源,但能夠顯著提高對模型能力和改進的理解。
值得注意的是,Brown的言論主要基於他在加入OpenAI之前從事博弈AI研究的經歷,而非像o1這樣的推理模型。他的觀點為人工智能領域的研究提供了新的視角,強調了推理能力在AI發展中的重要性,以及學術界和前沿實驗室之間合作的潛力。