OpenAI 공동 창립자 Ilya Sutskever가 수석 과학자직에서 물러난 후, 그는 동료 Daniel Levy 및 Apple의 전 인공지능 이사 Daniel Gross와 함께 Safe Superintelligence Inc.(SSI)를 공동 창립하여 안전 초지능 구축에 전념했습니다. 이러한 움직임은 특히 Sutskever가 이전에 OpenAI Super Alignment 팀을 이끌었고 2023년 11월 OpenAI CEO Sam Altman의 짧은 해임에 관여한 이후 광범위한 관심을 끌었습니다. SSI의 설립은 Sutskever가 인공 지능 보안에 중점을 두고 OpenAI에서 보다 집중적이고 독립적인 플랫폼으로 전환했음을 의미합니다.
OpenAI 공동 창업자인 Ilya Sutskever는 올해 5월 OpenAI의 수석 과학자직을 사임한 후 새로운 기업가적 프로젝트에 전념하겠다고 최근 발표했습니다. 그와 OpenAI 동료 Daniel Levy, 전 Apple 인공 지능 이사이자 Cue 공동 창업자인 Daniel Gross는 안전한 초지능 구축을 사명으로 하는 스타트업인 Safe Superintelligence Inc.를 공동 창립한다고 발표했습니다.

SSI 웹사이트에 게시된 정보에서 창립자들은 안전한 초지능 구축이 "우리 시대의 가장 중요한 기술적 문제"라고 말했습니다. 또한, "우리는 안전과 역량을 하나의 것으로 봅니다. 혁신적인 엔지니어링과 과학적 혁신을 통해 기술 문제를 해결하는 것입니다. 우리는 안전을 항상 앞서는 동시에 역량을 최대한 빨리 발전시킬 계획입니다."
그렇다면 초지능이란 무엇인가? 그것은 가장 똑똑한 인간을 훨씬 능가하는 지능을 가진 이론적 실체를 나타내는 가상의 개념이다.
이번 움직임은 OpenAI에서 Sutskever의 작업이 계속되는 것입니다. 그는 강력한 새 인공 지능 시스템을 제어하는 방법을 설계하는 회사의 Super Alignment 팀의 일원이었습니다. 그러나 Sutskever가 떠나면서 팀은 해체되었고, 이는 이전 리더 중 한 명인 Jean Leike로부터 가혹한 비난을 받았습니다.
SSI는 "하나의 목표와 하나의 제품에 초점을 맞춰 직선적으로 보안 초지능 개발을 진전시킬 것"이라고 주장합니다.
물론 OpenAI의 공동 창업자는 2023년 11월 CEO Sam Altman을 잠시 축출하는 데 중요한 역할을 했습니다. Sutskever는 나중에 사건에서 자신의 역할을 후회한다고 말했습니다.
Safe Superintelligence Inc.의 설립을 통해 Sutskever 등은 안전한 초지능 문제 해결에 더욱 집중하고 단일 목표로 제품 개발을 달성할 수 있게 될 것입니다.
SSI는 안전한 초지능 구축이라는 매우 어려운 문제를 해결하는 것을 목표로 하며, SSI의 향후 개발은 지속적인 관심을 받을 가치가 있습니다. Sutskever의 새 회사가 야심찬 목표를 달성하는 데 성공할지 여부는 인공 지능 분야에 광범위한 결과를 가져올 것입니다.