OpenAI 联合创始人 Ilya Sutskever 卸任首席科学家后,与同事 Daniel Levy 和苹果前人工智能主管 Daniel Gross 共同创办了 Safe Superintelligence Inc. (SSI),致力于构建安全的超级智能。这一举动引发了广泛关注,尤其是在 Sutskever 曾领导 OpenAI 超级对齐团队,并参与了 2023 年 11 月 OpenAI 首席执行官 Sam Altman 短暂罢免事件之后。SSI 的成立标志着 Sutskever 将其在人工智能安全方面的关注重点从 OpenAI 转移到了一个更专注、更独立的平台。
OpenAI 联合创始人 Ilya Sutskever 日前宣布,他将在今年5月卸任 OpenAI 首席科学家一职后,投身新的创业项目。他与 OpenAI 同事 Daniel Levy 以及苹果前人工智能主管、Cue 联合创始人 Daniel Gross 宣布,他们正共同创办 Safe Superintelligence Inc.,这家初创企业的使命是构建安全的超级智能。

在 SSI 网站发布的信息中,创始人们表示,构建安全的超级智能是 “我们这个时代最重要的技术问题”。此外,“我们将安全性和能力视为一体,作为通过革命性工程和科学突破解决的技术问题。我们计划尽快提升能力,同时确保我们的安全性永远领先。”
那么,什么是超级智能?这是一个假设性的概念,代表一个拥有远超最聪明人类智能的理论实体。
这一举措是 Sutskever 在 OpenAI 时期工作的延续。他曾是公司的超级对齐团队成员,负责设计控制强大新人工智能系统的方法。但随着 Sutskever 的离职,该团队被解散,这一举动受到了前领导之一 Jean Leike 的严厉批评。
SSI 声称将 “直线推进安全超智能的发展,专注于一个目标和一个产品。”
当然,OpenAI 的联合创始人在2023年11月的一次短暂罢免首席执行官 Sam Altman 中起到了重要作用。Sutskever 后来表示,他对自己在这一事件中的角色感到后悔。
Safe Superintelligence Inc. 的成立将使 Sutskever 等人能够更加专注地解决安全超智能的问题,实现单一目标的产品发展。
SSI 的目标是解决构建安全超级智能这一极具挑战性的问题,其未来的发展值得持续关注。Sutskever 的新公司能否成功实现其雄心勃勃的目标,将对人工智能领域产生深远影响。