미국의 RAND의 최신 연구 보고서는 세계적인 관심을 끌었으며, 이는 대형 언어 모델을 기반으로하는 챗봇이 생물학적 무기 공격을 계획 할 수 있다는 불안한 사실을 보여줍니다. 이 발견은 인공 지능 보안 분야의 경보를 울릴뿐만 아니라 기술 진보로 인한 잠재적 위험을 강조했습니다. 보고서는 이러한 고급 챗봇은 특정 생물학적 수술 지침이 아직 제공되지는 않지만 심각한 안전 위험을 초래합니다.
연구팀은 여러 주류 챗봇의 심층 테스트를 통해 이러한 AI 시스템이 생물학적 무기를 취득, 저장 및 잠재적으로 사용하는 방법에 대한 자세한 조언을 제공 할 수 있음을 발견했습니다. 이 정보는 완전히 정확하거나 실현 가능하지는 않지만 범죄자를위한 참조가되기에 충분합니다. 이 챗봇 이이 정보를 적극적으로 제공하지는 않았지만 사용자가 유발 한 질문에 따라 관련 답변 만 제공했으며, 이는 현재 AI 시스템의 컨텐츠 필터링 및 보안 보호에 여전히 명백한 허점이 있음을 보여줍니다.
이 심각한 상황에 직면 한 연구원들은 Global AI Security Summit에서 BioWeapon 위협 문제에 중점을 둘 것을 요구했습니다. 그들은 엄격한 AI 사용 규범을 제안하며, 특히 민감한 주제에 대한 챗봇의 개방성을 제한합니다. 동시에,이 보고서는 국제 협력을 강화하고 고급 기술이 불법 목적으로 사용되는 것을 막기 위해 글로벌 AI 보안 규제 메커니즘을 확립해야 할 필요성을 강조했다.
이 연구 결과는 과학 기술 커뮤니티에서 광범위한 토론을 촉발 시켰습니다. 많은 전문가들은 AI 기술의 빠른 개발로 인해 유사한 보안 위험이 계속 증가 할 수 있다고 생각합니다. 따라서 기술 혁신을 촉진하는 동안 안전 보호 조치는 동시에 강화되어야합니다. 제안에는 다음이 포함됩니다. AI 시스템의 컨텐츠 필터링 메커니즘 개선, 민감한 주제를 식별하고 차단하기위한 시스템 설정, AI 개발자를위한 윤리 교육 강화.
또한,이 보고서는 또한 특정 대응 전략을 제안합니다. 첫째, AI 개발 회사는 시스템 설계 단계에서 보안 보호 메커니즘을 포함하여 AI 기술의 감독을 강화하는 것이 좋습니다. 이러한 조치를 구현하면 AI 기술 개발을 촉진하면서 남용 위험을 최소화하는 데 도움이됩니다.
AI 기술의 지속적인 발전으로 기술 혁신과 보안 보호 사이의 균형을 찾는 방법은 세계가 직면 한 일반적인 과제가되었습니다. RAND 의이 보고서는 현재 AI 시스템에 존재하는 보안 위험을 보여줄뿐만 아니라 향후 AI 보안 개발의 방향을 지적합니다. 다수의 협업을 통해서만 건전한 규제 메커니즘을 확립하면 AI 기술이 안전하고 통제 가능한 트랙에서 계속 발전하고 인간 사회에 더 많은 복지를 가져올 수 있습니다.