Après que le co-fondateur d'OpenAI, Ilya Sutskever, a démissionné de son poste de scientifique en chef, il a cofondé Safe Superintelligence Inc. (SSI) avec son collègue Daniel Levy et l'ancien directeur de l'intelligence artificielle d'Apple, Daniel Gross, dédié à la construction d'une superintelligence sûre. Cette décision a attiré une large attention, en particulier après que Sutskever ait dirigé l'équipe OpenAI Super Alignment et ait été impliqué dans la brève éviction du PDG d'OpenAI, Sam Altman, en novembre 2023. La création de SSI marque le changement de Sutskever dans son orientation vers la sécurité de l'intelligence artificielle, passant d'OpenAI à une plate-forme plus ciblée et indépendante.
Le co-fondateur d'OpenAI, Ilya Sutskever, a récemment annoncé qu'il se consacrerait à de nouveaux projets entrepreneuriaux après avoir démissionné de son poste de scientifique en chef d'OpenAI en mai de cette année. Lui et Daniel Levy, collègue d'OpenAI, et Daniel Gross, ancien directeur de l'intelligence artificielle d'Apple et co-fondateur de Cue, ont annoncé qu'ils co-fondent Safe Superintelligence Inc., une start-up dont la mission est de construire une superintelligence sûre.

Dans des informations publiées sur le site Web du SSI, les fondateurs ont déclaré que la construction d'une superintelligence sécurisée est « le problème technique le plus important de notre époque ». En outre, « nous considérons la sécurité et les capacités comme un tout, comme des problèmes technologiques résolus grâce à une ingénierie révolutionnaire et des percées scientifiques. Nous prévoyons de faire progresser les capacités le plus rapidement possible tout en garantissant que notre sécurité est toujours en avance sur la courbe. »
Alors, qu’est-ce que la superintelligence ? C’est un concept hypothétique qui représente une entité théorique dotée d’une intelligence qui dépasse de loin celle des humains les plus intelligents.
Cette décision s'inscrit dans la continuité du travail de Sutskever chez OpenAI. Il était membre de l'équipe Super Alignment de l'entreprise, chargée de concevoir des moyens de contrôler de nouveaux systèmes d'intelligence artificielle puissants. Mais avec le départ de Sutskever, l'équipe a été dissoute, une décision qui a été durement critiquée par l'un de ses anciens dirigeants, Jean Leike.
SSI affirme qu’elle « fera progresser le développement d’une superintelligence sécurisée en ligne droite, en se concentrant sur un objectif et un produit ».
Bien entendu, le cofondateur d’OpenAI a joué un rôle déterminant dans la brève éviction du PDG Sam Altman en novembre 2023. Sutskever a déclaré plus tard qu'il regrettait son rôle dans l'incident.
La création de Safe Superintelligence Inc. permettra à Sutskever et à d'autres de se concentrer davantage sur la résolution du problème de la superintelligence sûre et de réaliser le développement de produits avec un seul objectif.
SSI vise à résoudre le problème extrêmement difficile de la création d’une superintelligence sécurisée, et son développement futur mérite une attention continue. Que la nouvelle entreprise de Sutskever parvienne à atteindre ses objectifs ambitieux aura des conséquences considérables sur le domaine de l'intelligence artificielle.