최근 OpenAI에서 임원 사임 물결이 이어지고 있어 업계의 큰 관심을 받고 있습니다. Super Alignment 팀장이 떠난 뒤, 보안 정책 컨설턴트이자 AGI 준비팀 리더인 Mil Brundage도 OpenAI에서 탈퇴를 선언하고 그가 이끄는 팀이 해체될 것이라고 밝혔습니다. 이러한 일련의 인사 변화는 OpenAI의 내부 구조에 영향을 미칠 뿐만 아니라 향후 개발 방향과 내부 문화 메커니즘에 대한 많은 질문을 제기합니다. 다운코드 편집자는 이에 대한 심층적인 설명을 제공하고 잠재적인 영향을 분석할 것입니다.
최근 OpenAI는 또 다른 사임을 발표했으며 보안 정책 컨설턴트이자 AGI 준비 팀의 리더인 Miles Brundage는 회사를 떠날 것이라고 발표했으며 그가 이끄는 팀도 해체되고 구성원은 다른 부서로 재배치될 것이라고 밝혔습니다.

Brundage는 소셜 미디어 플랫폼 X에 올린 게시물에서 자신의 결정을 자세히 설명했습니다. 그는 OpenAI를 떠난 주된 이유는 더 많은 독립성과 연구 출판의 자유를 얻기 위한 것이라고 말했습니다.
Brundage가 회사를 고위직으로 떠난 유일한 보안 연구원이 아니라는 점은 주목할 가치가 있습니다. 오픈AI는 이르면 올해 5월 초 인공지능 위험성 평가를 주로 담당했던 슈퍼얼라인먼트(Super Alignment)팀을 해체했다. 이후 팀의 두 리더인 얀 레이케(Jan Leike)와 일리아 서츠버(Ilya Sutsver)도 떠났다.
이 밖에 회사 최고기술책임자(CTO) 미라 무라티(Mira Murati), 최고연구책임자(CRO) 밥 맥그루(Bob McGrew), 연구 담당 부사장 바렛 조프(Barret Zoph) 등 고위 임원들도 최근 사임했다.
지난 6년 동안 Brundage는 OpenAI가 인공 지능의 급속한 발전에 대비할 수 있도록 경영진과 이사회에 자문을 제공해 왔습니다. 외부 전문가가 OpenAI 제품의 잠재적인 문제를 탐지하는 데 참여할 수 있도록 하는 외부 레드팀 메커니즘 도입을 포함하여 보안 연구에 대한 그의 기여는 과소평가될 수 없습니다.
Brundage는 자신과 OpenAI가 연구 발표의 한계에 대해 의견이 일치하지 않으며 이러한 한계를 받아들이기가 점점 더 어려워지고 있다고 언급했습니다. 그는 OpenAI 내에서의 그의 작업이 그의 연구 객관성에 영향을 미쳐 AI 정책의 미래에 대해 공정성을 유지하기 어렵게 만들었다고 믿습니다. 그는 또 소셜미디어를 통해 "발언하는 데에는 대가가 크고 일부 사람만이 할 수 있다"는 공통된 견해가 OpenAI 내부에 있다고 언급했다.
이 일련의 고위 경영진의 이탈은 OpenAI의 미래 방향에 더 많은 관심을 끌었을 뿐만 아니라 내부 문화 및 의사 결정 메커니즘에 대한 더 많은 질문을 제기했습니다.
가장 밝은 부분:
Brundage는 OpenAI에서 탈퇴를 발표했으며 AGI 준비팀도 해체됩니다.
그는 연구 제한에 대한 회사와의 의견 차이를 반영하여 연구를 출판하는 데 더 많은 자유를 원합니다.
최근 많은 고위 임원들이 사임했으며 외부 세계는 OpenAI의 향후 발전과 내부 문화에 주목했습니다.
OpenAI의 고위 경영진이 계속해서 이탈하면서 회사의 미래, 내부 문화, AI 안전 연구 방향에 대한 깊은 우려가 제기되었습니다. 이것이 AI 산업의 새로운 개편의 시작을 예고하는 것인가? 후속 개발에는 지속적인 관심이 필요합니다.