OpenAI の共同創設者である Ilya Sutskever 氏が主任科学者を辞任した後、同僚の Daniel Levy 氏および Apple の元人工知能ディレクター Daniel Gross 氏とともに Safe Superintelligence Inc. (SSI) を共同設立し、安全な超知能の構築に専念しました。特に、Sutskever氏が以前OpenAI Super Alignmentチームを率い、2023年11月にOpenAI CEOのSam Altman氏の短期間の解任に関与していたことから、この動きは広く注目を集めた。 SSI の設立は、Sutskever が人工知能のセキュリティに重点を置き、OpenAI からより焦点を絞った独立したプラットフォームに移行したことを示しています。
OpenAIの共同創設者であるIlya Sutskever氏は最近、今年5月にOpenAIのチーフサイエンティストを辞任した後は、新たな起業プロジェクトに専念すると発表した。彼と OpenAI の同僚であるダニエル・レヴィ氏、および元 Apple 人工知能ディレクターで Cue の共同創設者であるダニエル・グロス氏は、安全なスーパーインテリジェンスを構築することを使命とする新興企業、Safe Superintelligence Inc. を共同設立すると発表しました。

SSIのWebサイトに掲載された情報の中で、創設者らは安全なスーパーインテリジェンスの構築が「現代の最も重要な技術的問題」であると述べた。さらに、「私たちは、安全性と機能を、革新的なエンジニアリングと科学の進歩によって解決される技術的問題として一体のものとして捉えています。私たちは、安全性が常に時代の先を行くものであることを保証しながら、できるだけ早く機能を進化させるつもりです。」
では、超知能とは何でしょうか? それは、最も賢い人間の知能をはるかに超える知能を持つ理論的存在を表す仮説的な概念です。
この動きは、OpenAIにおけるSutskever氏の取り組みの継続である。彼は同社のスーパー アライメント チームのメンバーで、強力な新しい人工知能システムを制御する方法の設計を担当していました。しかし、スツケヴァー氏の退団によりチームは解散となり、元リーダーの一人、ジーン・ライク氏はこの動きを厳しく批判した。
SSI は、「1 つの目標と 1 つの製品に焦点を当て、安全なスーパーインテリジェンスの開発を直線的に進める」と主張しています。
もちろん、OpenAIの共同創設者は、2023年11月のサム・アルトマンCEOの短期間の解任に貢献した。スツケヴァー氏は後に、事件における自分の役割を後悔していると語った。
Safe Superintelligence Inc. の設立により、Sutskever 氏らは安全なスーパーインテリジェンスの問題の解決にさらに集中し、単一の目標に向けた製品開発を達成できるようになります。
SSI は、安全なスーパーインテリジェンスの構築という非常に困難な問題の解決を目指しており、今後の展開は引き続き注目に値します。サツケヴァー氏の新会社が野心的な目標を達成できるかどうかは、人工知能の分野に広範囲に影響を与えるだろう。