最近、OpenAI は役員辞任の波に直面し続けており、業界で広く注目を集めています。 Super Alignment チームの責任者の退任に続き、セキュリティ ポリシー コンサルタントであり、AGI 準備チームのリーダーである Mil Brundage 氏も OpenAI からの退任を発表し、彼が率いるチームが解散されることを明らかにしました。この一連の人事異動は、OpenAI の内部構造に影響を与えるだけでなく、将来の開発の方向性や内部の文化メカニズムについて多くの疑問を引き起こします。 Downcodes の編集者がこれについて詳しく説明し、その潜在的な影響を分析します。
最近、OpenAI は、セキュリティ ポリシー コンサルタントであり、AGI 準備チームのリーダーである Miles Brundage 氏が退職することを発表し、彼が率いるチームも解散し、メンバーが他の部門に配置転換されることを明らかにしました。

ブランデージ氏はソーシャルメディアプラットフォームXへの投稿で自身の決断を詳しく説明した。同氏は、OpenAIを辞めた主な理由は、独立性を高め、研究を発表する自由を得るためだったと述べた。
注目に値するのは、高レベルで退職したセキュリティ研究者はブランデージ氏だけではないということだ。 OpenAIは今年5月の時点で、主に人工知能のリスク評価を担当していたスーパーアライメントチームを解散した。それ以来、チームの2人のリーダー、ヤン・ライケとイリヤ・サツバーもチームを去った。
さらに、同社の最高技術責任者のミラ・ムラティ氏、最高研究責任者のボブ・マクグルー氏、研究担当副社長のバレット・ゾフ氏、その他の上級幹部らも最近退職した。
過去 6 年間、ブランデージ氏は OpenAI の経営陣と取締役会にアドバイスを提供し、同社が人工知能の急速な進歩に備えるのを支援してきました。 OpenAI 製品の潜在的な問題の検出に外部専門家が参加できるようにする外部レッド チーム メカニズムの導入など、セキュリティ研究に対する彼の貢献を過小評価することはできません。
Brundage 氏は、研究リリースの制限について OpenAI と意見が一致せず、これらの制限を受け入れることがますます難しくなっていると感じたと述べました。彼は、OpenAI 内での自身の研究が研究の客観性に影響を与えており、AI 政策の将来について公平性を保つことが困難になっていると考えています。同氏はまた、ソーシャルメディア上で、「声を上げることは代償が高く、一部の人しかできない」という共通認識がOpenAI内にあることにも言及した。
この一連の上級幹部の辞任は、OpenAIの将来の方向性への注目を集めただけでなく、その内部文化や意思決定メカニズムについてもさらなる疑問を引き起こした。
ハイライト:
ブランデージ氏はOpenAIからの離脱を発表し、AGI準備チームも解散することになる。
研究制限を巡る企業との意見の相違を反映して、同氏は研究発表の自由の拡大を望んでいる。
最近、多くの上級幹部が辞任し、OpenAIの今後の発展と社内文化に社外の注目が集まっている。
OpenAI では上級幹部の辞任が続いており、同社の将来、社内文化、AI の安全性研究の方向性について深い懸念が生じています。 これはAI業界における新たな再編の始まりを告げるものなのでしょうか? その後の展開は引き続き注目に値します。