Recientemente, OpenAI ha seguido enfrentándose a una ola de dimisiones de ejecutivos, lo que ha atraído una atención generalizada en la industria. Tras la salida del jefe del equipo Super Alignment, el consultor de políticas de seguridad y líder del equipo de preparación de AGI, Mil Brundage, también anunció su salida de OpenAI y reveló que el equipo que dirigía se disolvería. Esta serie de cambios de personal no solo afecta la estructura interna de OpenAI, sino que también plantea muchas preguntas sobre su dirección de desarrollo futuro y sus mecanismos culturales internos. El editor de Downcodes explicará en profundidad esto y analizará su potencial impacto.
Recientemente, OpenAI informó otra renuncia Miles Brundage, consultor de políticas de seguridad y líder del equipo de preparación de AGI, anunció que dejará la empresa y reveló que el equipo que lidera también se disolverá y los miembros serán reasignados a otros departamentos.

Brundage explicó su decisión en detalle en una publicación en la plataforma de redes sociales X. Dijo que la razón principal para dejar OpenAI fue tener más independencia y libertad para publicar investigaciones.
Vale la pena señalar que Brundage no es el único investigador de seguridad que deja la empresa en un alto nivel. Ya en mayo de este año, OpenAI disolvió su equipo Super Alignment, que era el principal responsable de la evaluación de riesgos de la superinteligencia artificial. Desde entonces, los dos líderes del equipo, Jan Leike e Ilya Sutsver, también se han marchado.
Además, la directora de tecnología de la compañía, Mira Murati, el director de investigación, Bob McGrew, y el vicepresidente de investigación, Barret Zoph, y otros altos ejecutivos también se fueron recientemente.
Durante los últimos seis años, Brundage ha asesorado a la dirección y a la junta directiva de OpenAI para ayudar a la empresa a prepararse para el rápido avance de la inteligencia artificial. No se pueden subestimar sus contribuciones a la investigación de seguridad, incluida la introducción de un mecanismo de equipo rojo externo, que permite a expertos externos participar en la detección de problemas potenciales en los productos OpenAI.
Brundage mencionó que él y OpenAI no estaban de acuerdo sobre las limitaciones de la publicación de la investigación y consideró que estas limitaciones eran cada vez más difíciles de aceptar. Cree que su trabajo dentro de OpenAI ha afectado la objetividad de su investigación, lo que le dificulta permanecer imparcial sobre el futuro de la política de IA. También mencionó en las redes sociales que existe una opinión común dentro de OpenAI de que "el precio de hablar es alto y sólo algunas personas pueden hacerlo".
La partida de esta serie de altos ejecutivos no solo ha llamado más la atención sobre la dirección futura de OpenAI, sino que también ha planteado más preguntas sobre su cultura interna y su mecanismo de toma de decisiones.
Destacar:
Brundage anunció su salida de OpenAI y el equipo de preparación de AGI también se disolverá.
Quiere más libertad para publicar investigaciones, lo que refleja desacuerdos con las empresas sobre las restricciones a la investigación.
Recientemente, muchos altos ejecutivos han dimitido y el mundo exterior ha prestado atención al desarrollo futuro y la cultura interna de OpenAI.
Las continuas salidas de altos ejecutivos de OpenAI han generado profundas preocupaciones sobre el futuro de la empresa, su cultura interna y la dirección de su investigación de seguridad de IA. ¿Esto presagia el comienzo de una nueva ronda de reorganización en la industria de la IA? Los acontecimientos posteriores merecen una atención continua.