OpenAI 聯合創始人Ilya Sutskever 卸任首席科學家後,與同事Daniel Levy 和蘋果前人工智慧主管Daniel Gross 共同創辦了Safe Superintelligence Inc. (SSI),致力於建立安全的超級智慧。這一舉動引發了廣泛關注,尤其是在Sutskever 曾領導OpenAI 超級對齊團隊,並參與了2023 年11 月OpenAI 首席執行官Sam Altman 短暫罷免事件之後。 SSI 的成立標誌著Sutskever 將其在人工智慧安全方面的關注重點從OpenAI 轉移到了一個更專注、更獨立的平台。
OpenAI 共同創辦人Ilya Sutskever 日前宣布,他將在今年5月卸任OpenAI 首席科學家一職後,投身新的創業計畫。他與OpenAI 同事Daniel Levy 以及蘋果前人工智慧主管、Cue 聯合創始人Daniel Gross 宣布,他們正共同創辦Safe Superintelligence Inc.,這家新創企業的使命是建立安全的超級智慧。

在SSI 網站發布的信息中,創始人表示,建立安全的超級智慧是「我們這個時代最重要的技術問題」。此外,“我們將安全性和能力視為一體,作為透過革命性工程和科學突破解決的技術問題。我們計劃盡快提升能力,同時確保我們的安全性永遠領先。”
那麼,什麼是超級智能?這是一個假設性的概念,代表一個擁有遠超最聰明人類智能的理論實體。
這項舉措是Sutskever 在OpenAI 時期工作的延續。他曾是公司的超級對齊團隊成員,負責設計控制強大新人工智慧系統的方法。但隨著Sutskever 的離職,該團隊被解散,這一舉動受到了前領導之一Jean Leike 的嚴厲批評。
SSI 聲稱將“直線推進安全超智慧的發展,專注於一個目標和一個產品。”
當然,OpenAI 的共同創辦人在2023年11月的一次短暫罷免執行長Sam Altman 中扮演了重要角色。 Sutskever 後來表示,他對自己在這一事件中的角色感到後悔。
Safe Superintelligence Inc. 的成立將使Sutskever 等人能夠更專注地解決安全超智慧的問題,並實現單一目標的產品發展。
SSI 的目標是解決建構安全超級智慧這一極具挑戰性的問題,其未來的發展值得持續關注。 Sutskever 的新公司能否成功實現其雄心勃勃的目標,將對人工智慧領域產生深遠影響。