Nachdem OpenAI-Mitbegründer Ilya Sutskever als leitender Wissenschaftler zurückgetreten war, gründete er zusammen mit seinem Kollegen Daniel Levy und Apples ehemaligem Direktor für künstliche Intelligenz Daniel Gross Safe Superintelligence Inc. (SSI), das sich dem Aufbau sicherer Superintelligenz widmet. Der Schritt erregte große Aufmerksamkeit, insbesondere nachdem Sutskever zuvor das OpenAI Super Alignment-Team leitete und an der kurzen Absetzung von OpenAI-CEO Sam Altman im November 2023 beteiligt war. Die Gründung von SSI markiert die Verlagerung des Schwerpunkts von Sutskever auf die Sicherheit künstlicher Intelligenz von OpenAI hin zu einer fokussierteren und unabhängigeren Plattform.
OpenAI-Mitbegründer Ilya Sutskever gab kürzlich bekannt, dass er sich nach seinem Rücktritt als Chefwissenschaftler von OpenAI im Mai dieses Jahres neuen unternehmerischen Projekten widmen werde. Er und OpenAI-Kollege Daniel Levy sowie der ehemalige Apple-Direktor für künstliche Intelligenz und Cue-Mitbegründer Daniel Gross gaben bekannt, dass sie Safe Superintelligence Inc. mitbegründen werden, ein Start-up, dessen Mission es ist, sichere Superintelligenz aufzubauen.

In Informationen, die auf der SSI-Website veröffentlicht wurden, sagten die Gründer, dass der Aufbau sicherer Superintelligenz „das wichtigste technische Problem unserer Zeit“ sei. Darüber hinaus „betrachten wir Sicherheit und Fähigkeiten als eine Einheit, als Technologieprobleme, die durch revolutionäre technische und wissenschaftliche Durchbrüche gelöst werden. Wir planen, die Fähigkeiten so schnell wie möglich zu verbessern und gleichzeitig sicherzustellen, dass unsere Sicherheit immer einen Schritt voraus ist.“
Was ist also Superintelligenz? Es handelt sich um ein hypothetisches Konzept, das eine theoretische Einheit mit einer Intelligenz darstellt, die die der klügsten Menschen bei weitem übertrifft.
Der Umzug ist eine Fortsetzung von Sutskevers Arbeit bei OpenAI. Er war Mitglied des Super Alignment-Teams des Unternehmens und verantwortlich für die Entwicklung von Möglichkeiten zur Steuerung leistungsstarker neuer Systeme der künstlichen Intelligenz. Doch mit Sutskevers Weggang wurde das Team aufgelöst, was von einem seiner ehemaligen Anführer, Jean Leike, scharf kritisiert wurde.
SSI behauptet, es werde „die Entwicklung sicherer Superintelligenz geradlinig vorantreiben, konzentriert auf ein Ziel und ein Produkt“.
Natürlich war der Mitbegründer von OpenAI maßgeblich an der kurzfristigen Absetzung von CEO Sam Altman im November 2023 beteiligt. Sutskever sagte später, er bereue seine Rolle bei dem Vorfall.
Die Gründung von Safe Superintelligence Inc. wird es Sutskever und anderen ermöglichen, sich stärker auf die Lösung des Problems der sicheren Superintelligenz zu konzentrieren und eine Produktentwicklung mit einem einzigen Ziel zu erreichen.
SSI zielt darauf ab, das äußerst anspruchsvolle Problem des Aufbaus einer sicheren Superintelligenz zu lösen, und seine zukünftige Entwicklung verdient kontinuierliche Aufmerksamkeit. Ob es Sutskevers neuem Unternehmen gelingt, seine ehrgeizigen Ziele zu erreichen, wird weitreichende Folgen für den Bereich der künstlichen Intelligenz haben.