Recentemente, a OpenAI continuou a enfrentar uma onda de demissões de executivos, o que atraiu ampla atenção na indústria. Após a saída do chefe da equipe Super Alignment, o consultor de política de segurança e líder da equipe de prontidão AGI Mil Brundage também anunciou sua saída da OpenAI e revelou que a equipe que ele liderava seria dissolvida. Esta série de mudanças de pessoal não só impacta a estrutura interna da OpenAI, mas também levanta muitas questões sobre a sua futura direção de desenvolvimento e mecanismos culturais internos. O editor de Downcodes fornecerá uma explicação detalhada sobre isso e analisará seu impacto potencial.
Recentemente, a OpenAI relatou outra demissão, Miles Brundage, consultor de política de segurança e líder da equipe de preparação da AGI, anunciou que deixará a empresa e revelou que a equipe que lidera também será dissolvida e os membros serão transferidos para outros departamentos.

Brundage explicou detalhadamente sua decisão em uma postagem na plataforma de mídia social X. Ele disse que o principal motivo para deixar a OpenAI foi ter mais independência e liberdade para publicar pesquisas.
É importante notar que Brundage não é o único pesquisador de segurança a deixar a empresa em alto nível. Já em maio deste ano, a OpenAI dissolveu sua equipe de Super Alignment, que era a principal responsável pela avaliação de risco da superinteligência artificial. Desde então, os dois líderes da equipa, Jan Leike e Ilya Sutsver, também partiram.
Além disso, a diretora de tecnologia da empresa, Mira Murati, o diretor de pesquisa Bob McGrew e o vice-presidente de pesquisa Barret Zoph e outros executivos seniores também saíram recentemente.
Nos últimos seis anos, Brundage tem assessorado a administração e o conselho de administração da OpenAI para ajudar a empresa a se preparar para o rápido avanço da inteligência artificial. As suas contribuições para a investigação em segurança não podem ser subestimadas, incluindo a introdução de um mecanismo externo de red teaming, que permite que especialistas externos participem na detecção de potenciais problemas em produtos OpenAI.
Brundage mencionou que ele e a OpenAI discordavam sobre as limitações do lançamento da pesquisa e sentiam que essas limitações eram cada vez mais difíceis de aceitar. Ele acredita que o seu trabalho na OpenAI afetou a objetividade da sua investigação, tornando difícil para ele permanecer imparcial sobre o futuro da política de IA. Ele também mencionou nas redes sociais que existe uma visão comum dentro da OpenAI de que “o preço de falar abertamente é alto e apenas algumas pessoas podem fazê-lo”.
A saída desta série de executivos seniores não só atraiu mais atenção para a direção futura da OpenAI, mas também levantou mais questões sobre a sua cultura interna e mecanismo de tomada de decisão.
Destaque:
Brundage anunciou sua saída da OpenAI, e a equipe de preparação da AGI também será dissolvida.
Ele quer mais liberdade para publicar pesquisas, refletindo divergências com empresas sobre restrições à pesquisa.
Recentemente, muitos executivos seniores renunciaram e o mundo exterior prestou atenção ao desenvolvimento futuro e à cultura interna da OpenAI.
As contínuas saídas de executivos seniores da OpenAI levantaram profundas preocupações sobre o futuro da empresa, sua cultura interna e a direção de sua pesquisa de segurança de IA. Isso anuncia o início de uma nova rodada de remodelação na indústria de IA? Os desenvolvimentos subsequentes merecem atenção contínua.