Después de que el cofundador de OpenAI, Ilya Sutskever, dimitiera como científico jefe, cofundó Safe Superintelligence Inc. (SSI) con su colega Daniel Levy y el ex director de inteligencia artificial de Apple, Daniel Gross, dedicado a construir superinteligencia segura. La medida atrajo una atención generalizada, especialmente después de que Sutskever dirigió anteriormente el equipo OpenAI Super Alignment y participó en la breve destitución del director ejecutivo de OpenAI, Sam Altman, en noviembre de 2023. El establecimiento de SSI marca el cambio de Sutskever en su enfoque en la seguridad de la inteligencia artificial de OpenAI a una plataforma más enfocada e independiente.
El cofundador de OpenAI, Ilya Sutskever, anunció recientemente que se dedicará a nuevos proyectos empresariales después de dimitir como científico jefe de OpenAI en mayo de este año. Él, su colega de OpenAI, Daniel Levy, y el exdirector de inteligencia artificial de Apple y cofundador de Cue, Daniel Gross, anunciaron que están cofundando Safe Superintelligence Inc., una nueva empresa cuya misión es construir superinteligencia segura.

En información publicada en el sitio web de SSI, los fundadores dijeron que construir una superinteligencia segura es "el problema técnico más importante de nuestro tiempo". Además, "consideramos la seguridad y las capacidades como una sola cosa, como problemas tecnológicos resueltos mediante ingeniería revolucionaria y avances científicos. Planeamos mejorar las capacidades lo más rápido posible y al mismo tiempo garantizar que nuestra seguridad esté siempre a la vanguardia".
Entonces, ¿qué es la superinteligencia? Se trata de un concepto hipotético que representa una entidad teórica con una inteligencia que supera con creces la de los humanos más inteligentes.
La medida es una continuación del trabajo de Sutskever en OpenAI. Fue miembro del equipo Super Alignment de la empresa, responsable de diseñar formas de controlar nuevos y potentes sistemas de inteligencia artificial. Pero con la marcha de Sutskever, el equipo se disolvió, medida que fue duramente criticada por uno de sus antiguos dirigentes, Jean Leike.
SSI afirma que "avanzará el desarrollo de superinteligencia segura en línea recta, centrada en un objetivo y un producto".
Por supuesto, el cofundador de OpenAI jugó un papel decisivo en el breve derrocamiento del director ejecutivo Sam Altman en noviembre de 2023. Sutskever dijo más tarde que lamentaba su papel en el incidente.
El establecimiento de Safe Superintelligence Inc. permitirá a Sutskever y otros centrarse más en resolver el problema de la superinteligencia segura y lograr el desarrollo de productos con un único objetivo.
SSI tiene como objetivo resolver el problema extremadamente desafiante de construir superinteligencia segura, y su desarrollo futuro merece atención continua. Que la nueva empresa de Sutskever consiga alcanzar sus ambiciosos objetivos tendrá consecuencias de gran alcance para el campo de la inteligencia artificial.