После того, как соучредитель OpenAI Илья Суцкевер ушел с поста главного ученого, он вместе со своим коллегой Дэниелом Леви и бывшим директором Apple по искусственному интеллекту Дэниелом Гроссом основал компанию Safe Superintelligence Inc. (SSI), занимающуюся созданием безопасного суперинтеллекта. Этот шаг привлек широкое внимание, особенно после того, как Суцкевер ранее возглавлял команду OpenAI Super Alignment и участвовал в кратковременном отставке генерального директора OpenAI Сэма Альтмана в ноябре 2023 года. Создание SSI знаменует собой сдвиг Суцкевера в сфере безопасности искусственного интеллекта с OpenAI на более целенаправленную и независимую платформу.
Соучредитель OpenAI Илья Суцкевер недавно объявил, что посвятит себя новым предпринимательским проектам после ухода с поста главного ученого OpenAI в мае этого года. Он и его коллега по OpenAI Дэниел Леви и бывший директор Apple по искусственному интеллекту и соучредитель Cue Дэниел Гросс объявили, что они становятся соучредителями Safe Superintelligence Inc., стартапа, миссия которого заключается в создании безопасного сверхинтеллекта.

В информации, размещенной на сайте SSI, основатели заявили, что создание защищенного сверхинтеллекта является «самой важной технической проблемой нашего времени». Более того: «Мы рассматриваем безопасность и возможности как единое целое, как технологические проблемы, решаемые посредством революционных инженерных и научных прорывов. Мы планируем расширять возможности как можно быстрее, обеспечивая при этом нашу безопасность всегда на первом месте».
Итак, что такое сверхинтеллект? Это гипотетическая концепция, которая представляет собой теоретическую сущность, интеллект которой намного превосходит интеллект самых умных людей.
Этот шаг является продолжением работы Суцкевера в OpenAI. Он был членом команды Super Alignment компании, отвечавшей за разработку способов управления новыми мощными системами искусственного интеллекта. Но с уходом Суцкевера команда была распущена, что вызвало резкую критику со стороны одного из ее бывших лидеров Жана Лейке.
SSI утверждает, что «будет продвигать развитие безопасного сверхинтеллекта по прямой линии, сосредоточившись на одной цели и одном продукте».
Конечно, соучредитель OpenAI сыграл важную роль в кратковременном увольнении генерального директора Сэма Альтмана в ноябре 2023 года. Позже Суцкевер заявил, что сожалеет о своей роли в инциденте.
Создание Safe Superintelligence Inc. позволит Суцкеверу и другим больше сосредоточиться на решении проблемы безопасного суперинтеллекта и добиться разработки продуктов с единой целью.
SSI стремится решить чрезвычайно сложную проблему создания безопасного сверхинтеллекта, и его будущее развитие заслуживает постоянного внимания. Удастся ли новой компании Суцкевера достичь своих амбициозных целей, это будет иметь далеко идущие последствия для области искусственного интеллекта.