機器智能研究所(MIRI)發布聲明,呼籲全球停止研發比人類更聰明的AI系統,認為其潛在風險可能導致人類滅亡。這項呼籲得到了部分科技界領袖的支持,但同時也引發了爭議。 MIRI 強調,目前的AI發展速度過快,立法監管難以跟上,因此需要採取更積極的措施,例如強制安裝“關閉開關”,以應對AI潛在的惡意行為和不可預測的風險。該研究所認為,只有在確保AI安全可控的情況下,才能繼續推動更高階AI系統的研發。
非營利研究團體機器智能研究所(MIRI)呼籲全球停止基礎或「前沿」 模型研究,擔心其安全問題可能威脅人類生存。基礎模型是一種能夠應用於多種模式的人工智慧系統。 MIRI 認為,基礎模型將會比人類更聰明,並且有可能「毀滅人類」。

在科技領域,包括伊隆・馬斯克和史蒂夫・沃茲尼亞克在內的一些領導人物,曾呼籲暫停研發比OpenAI 的GPT-4更強大的基礎模型。但MIRI 希望更進一步,最近公佈的溝通策略呼籲全面停止嘗試建造任何比人類更聰明的系統。
該團體稱:“政策制定者主要通過妥協來處理問題:他們通過在某個地方讓步來獲得另一方面的好處。我們擔心,為了保持人類生存的大部分立法將通過通常的政治過程並被磨成無效的妥協。
MIRI 希望政府迫使開發基礎模型的公司安裝“關閉開關”,以便在AI 系統發展出惡意或“x 風險” 傾向時可以關閉AI 系統。
該非營利組織表示,他們仍然致力於智慧系統比人類更聰明的理念,但希望在「我們知道如何安全地建造此類AI 之後再建造」。
MIRI 由Eliezer Yudkowsky 於2000年創立,支持者包括Peter Thiel 和以太坊加密貨幣的聯合創始人Vitalik Buterin。而Future of Life Institute(生命未來研究所)也是MIRI 的主要貢獻者之一。
AI 和數據分析研究公司Omdia 的首席分析師Bradley Shimmin 表示,由於缺乏支持性研究,MIRI 將很難說服立法者。他說:「市場已經考慮了這些問題,並得出結論:基於轉換器的GenAI 模型的當前和近期未來的藝術狀態除了創建複雜主題的有用表示之外,幾乎不能做任何事情。」Shimmin 表示, MIRI 正確地識別了那些建構和監管人工智慧之間的知識差距。
劃重點:
- 非營利研究團體機器智能研究所(MIRI)呼籲全球停止基礎或「前沿」 模型研究,擔心其安全問題可能威脅人類生存。
- MIRI 希望政府迫使開發基礎模型的公司安裝“關閉開關”,以便在AI 系統發展出惡意或“x 風險” 傾向時可以關閉AI 系統。
- AI 和數據分析研究公司Omdia 的首席分析師Bradley Shimmin 表示,由於缺乏支持性研究,MIRI 將很難說服立法者。
MIRI 的呼籲引發了關於AI 安全性和發展速度的廣泛討論,其觀點雖然極端,但也凸顯了對人工智慧潛在風險的擔憂,值得業界和政府認真反思和考慮。未來,如何平衡人工智慧發展與安全風險,將是一個重要的課題。