최근 OpenAI의 정책 연구 책임자 인 Miles Brundage는 AI 보안에 대한 회사의 이야기 변화를 비판하면서 OpenAI는 AI 시스템의 보안 기록을 다시 작성하고 있다고 말했다. 그는 OpenAI가 일반 인공 지능 (AGI)을 추구 할 때 장기 보안 조치를 무시할 수 있다고 말했다.

Openai는 특히 DeepSeek와 같은 경쟁 업체의 증가가 증가하는 맥락에서 야심 찬 비전을 장려하기 위해 노력해 왔습니다. AGI의 발전을 추구하는 과정 에서이 회사는 슈퍼 인공 지능 에이전트의 잠재력을 종종 강조하지만 이러한 태도는 널리 인정되지 않았습니다. Brendage는 OpenAI가 기존 AI 모델의 배포 및 보안과 일치하지 않는 이야기를 가지고 있다고 생각합니다.
최근 OpenAi는 AI 모델을 점진적으로 배포하여 신중한 접근 방식을 보여주기위한 문서를 발표했습니다. 문서의 예제로 GPT-2를 취하면 현재 시스템을 다룰 때 높은 수준의주의를 유지해야합니다. Openai는 문서에서 언급했습니다. "불연속적인 세상에서 보안 수업은 오늘날의 시스템과의 높은주의를 기울여야하며, 이는 GPT-2 모델에 대한 접근 방식입니다."
그러나 Brendage는 이것에 의문을 제기했습니다. 그는 GPT-2의 출시가 점진적인 접근 방식을 따르고 있으며 보안 전문가들은 OpenAI의 신중한 취급을 칭찬했습니다. 그는 과거의 신중함이 과도하지 않고 필요하고 책임감있는 관행이라고 생각합니다.
또한 Brendage는 AGI가 갑작스런 돌파구보다는 점진적인 단계를 거치게 될 것이라는 Openai의 주장에 대한 우려를 표명했습니다. 그는 Openai가 GPT-2 릴리스의 역사에 대한 오해와 보안 이력에 대한 재조사가 혼란 스럽다고 생각합니다. 그는 또한 OpenAI가 발표 한 문서는 어떻게 든 보안 문제가 과잉 반응으로 여겨 질 수 있으며, 이는 끊임없이 진화하는 AI 시스템의 맥락에서 상당한 위험을 초래할 수 있다고 언급했다.
OpenAI가 처음으로 비난을받은 것은 이번이 처음이 아닙니다. 전문가들은 회사가 장기 보안과 단기 혜택 사이에 합리적인 트레이드 오프를했는지에 대해 의문을 제기했습니다. Brendage의 우려는 AI 보안에 다시 한 번 주목을 받았습니다.
핵심 사항 :
OpenAI의 전 정책 리더는 회사의 AI 보안 이야기의 변화에 의문을 제기했으며, 그것이 역사에 대한 오해라고 믿었습니다.
OpenAI가 발표 한 문서는 AI 모델의 신중한 출시의 중요성을 강조하지만 이전 직원들에 의해 비판을 받았습니다.
전문가들은 AI 시스템의 향후 개발에 대한 우려를 표명했습니다.