近期,OpenAI 持续面临高管离职潮,引发业界广泛关注。继超级对齐团队负责人离职后,安全政策顾问及 AGI 准备团队负责人米尔·布伦达奇也宣布离开 OpenAI,并透露其领导的团队将解散。这一系列人事变动不仅冲击着 OpenAI 的内部结构,更引发了人们对其未来发展方向和内部文化机制的诸多疑问。Downcodes小编将对此进行深入解读,分析其潜在影响。
最近,OpenAI 再传离职消息,安全政策顾问及 AGI 准备团队负责人米尔・布伦达奇(Miles Brundage)宣布将离开公司,并透露他所领导的团队也将解散,成员将被重新分配到其他部门。

布伦达奇在社交媒体平台 X 上发布了一篇文章,详细解释了自己的决定。他表示,离开 OpenAI 的原因主要是想要拥有更多的独立性和发表研究的自由。
值得注意的是,布伦达奇并不是唯一一位高层离职的安全研究者。早在今年5月,OpenAI 就解散了其超级对齐团队,这个团队主要负责人工超级智能的风险评估。此后,该团队的两位负责人亚恩・莱克(Jan Leike)和伊利亚・苏茨克维尔(Ilya Sutsver)也相继离职。
除此,公司的首席技术官米拉・穆拉特(Mira Murati)、首席研究官鲍勃・麦格鲁(Bob McGrew)以及研究副总裁巴雷特・佐夫(Barret Zoph)等多位高层也在近期相继离开。
在过去的六年中,布伦达奇一直在 OpenAI 向管理层和董事会提供建议,帮助公司为人工智能的快速发展做好准备。他在安全研究方面的贡献不容小觑,包括引入外部红队(external red teaming)机制,这一机制让外部专家参与检测 OpenAI 产品的潜在问题。
布伦达奇提到,他与 OpenAI 在研究发布的限制上存在分歧,觉得这些限制越来越难以接受。他认为,自己在 OpenAI 内部的工作已经影响了自己的研究客观性,使他在 AI 政策的未来问题上难以保持公正。他在社交媒体上还提到,OpenAI 内部普遍存在一种观点,那就是 “发声的代价很大,只有一些人能够做到这一点”。
这一系列高管的离职,不仅让 OpenAI 的未来方向引发了更多的关注,也使得外界对其内部文化和决策机制产生了更多的疑问。
划重点:
布伦达奇宣布离开 OpenAI,AGI 准备团队也将解散。
他希望能拥有更多研究发表的自由,反映出与公司在研究限制上的分歧。
最近多位高管相继离职,外界对 OpenAI 的未来发展和内部文化产生了关注。
OpenAI 高管持续离职,引发了对公司未来发展、内部文化以及人工智能安全研究方向的深切担忧。 这是否预示着 AI 行业新一轮洗牌的开始? 后续发展值得持续关注。