Recentemente, Miles Brundage, ex -chefe de pesquisa de políticas da Openai, criticou a mudança narrativa da empresa na segurança da IA, dizendo que o OpenAI está reescrevendo sua história de segurança nos sistemas de IA. Ele disse que o Openai pode ignorar as medidas de segurança de longo prazo em sua busca pela Inteligência Artificial Geral (AGI).

A Openai está comprometida em promover sua visão ambiciosa, especialmente no contexto de crescente ascensão de concorrentes como Deepseek. No processo de busca do desenvolvimento da AGI, a empresa enfatiza frequentemente o potencial de agentes de inteligência super artificial, mas essa atitude não foi amplamente reconhecida. Brendage acredita que o OpenAI tem narrativas inconsistentes com a implantação e a segurança de seus modelos de IA existentes.
Recentemente, o OpenAI divulgou um documento sobre a implantação gradual de seu modelo de IA para demonstrar sua abordagem prudente. Tomar o GPT-2 como um exemplo no documento enfatiza que um alto grau de cautela deve ser mantido ao lidar com o sistema atual. Openai mencionado na documentação: "Em um mundo descontínuo, as aulas de segurança vêm de um alto grau de cautela com os sistemas de hoje, que é exatamente a abordagem que adotamos no modelo GPT-2".
No entanto, Brendage questionou isso. Ele acredita que o lançamento do GPT-2 também segue uma abordagem gradual, e os especialistas em segurança elogiaram o manuseio cauteloso da Openai. Ele acredita que a prudência passada não era uma prática excessiva, mas necessária e responsável.
Além disso, Brendage expressou preocupações com a alegação de Openai de que a AGI passará por etapas graduais, em vez de avanços repentinos. Ele acredita que os mal-entendidos da história da Lançamento do GPT-2 da Openai e sua re-narrativa da história da segurança são perturbadores. Ele também observou que os documentos publicados pelo OpenAI podem, de alguma forma, fazer com que as preocupações de segurança sejam vistas como reação exagerada, o que pode representar riscos significativos no contexto dos sistemas de IA em constante evolução.
Esta não é a primeira vez que o OpenAI é criticado, com especialistas questionando se as empresas fizeram uma troca razoável entre segurança a longo prazo e benefícios a curto prazo. As preocupações de Brendage mais uma vez atraíram a atenção para a segurança da IA.
Pontos -chave:
O ex -líder de políticas da Openai questionou as mudanças da empresa na narrativa de segurança da IA, acreditando que foi um mal -entendido da história.
Os documentos divulgados pelo OpenAI enfatizam a importância da liberação cautelosa dos modelos de IA, mas foram criticados por ex -funcionários.
Especialistas expressaram preocupações sobre o desenvolvimento futuro dos sistemas de IA.