가트너 (Gartner)의 최신 연구 보고서에 따르면, 생성 인공 지능 (GENAI) 기술의 광범위한 사용은 중요한 데이터 보안 위험을 초래할 것입니다. 2027 년까지 AI 관련 데이터 유출의 40% 이상이 생성 인공 지능의 오용으로 직접적으로 기인 할 것으로 추정됩니다. 이 예측은 Genai 기술, 특히 데이터 거버넌스 및 보안 측정에서 기업이 직면 한 심각한 과제를 강조합니다.
Genai 기술의 급속한 대중화로 인해 데이터 현지화의 맥락에서 조직이 직면 한 문제는 특히 두드러집니다. 이러한 기술로부터 중앙 컴퓨팅 전력에 대한 높은 수요로 인해 국경 간 데이터 흐름의 위험이 크게 증가했습니다. Gartner의 부사장 인 Joerg Fritsch는 많은 회사들이 Genai 도구를 통합 할 때 필요한 감독이 부족하여 우연히 민감한 데이터를 알 수없는 위치로 전송하여 심각한 보안 위험을 초래할 가능성을 강조했습니다.

전 세계적으로 통합 데이터 거버넌스 표준의 부족은 또 다른 주요 과제입니다. 이러한 표준화 부족으로 인해 시장이 단편화되어 기업이 다양한 지역에 대한 특정 전략을 개발하도록했으며, 이는 운영 비용을 증가시킬뿐만 아니라 전 세계 AI 제품 및 서비스를 효과적으로 활용하는 능력을 제한합니다. Fritsch는“데이터 흐름 관리의 복잡성과 현지화 된 AI 정책에 의해 제기 된 품질 유지 보수 문제는 운영 효율성이 크게 감소 할 수있다”고 지적했다.
이러한 위험을 해결하기 위해 회사는 AI 거버넌스 및 보안에 전략적 투자를해야합니다. Gartner는 2027 년까지 AI 거버넌스가 일반적으로 전 세계적으로, 특히 주권 AI 법률 및 규정의 틀에 따라 요구 될 것이라고 예측합니다. 필요한 거버넌스 모델을 적시에 통합하지 못한 조직은 경쟁력있는 단점에 직면하고 시장 기회를 잃을 수 있습니다.
AI 데이터 유출의 위험을 줄이기 위해 Gartner는 다단계 전략을 채택 할 것을 권장합니다. 첫째, 데이터 거버넌스를 강화하고, 예상치 못한 국경 간 데이터 전송을 모니터링하고, 전담 거버넌스위원회를 설립하여 AI INCUNCITATION의 투명성을 향상시킵니다.
또한 회사는 AI 기술과 관련된 신뢰, 위험 및 보안 관리 (TRISM) 제품에 투자해야합니다. 여기에는 AI 거버넌스, 데이터 보안 거버넌스, 프롬프트 필터링 및 빨간색 동작 및 구조화되지 않은 데이터를 생성하기위한 합성이 포함됩니다. Gartner는 2026 년까지 AI Trism Control을 구현하는 기업이 부정확 한 정보를 50%이상 줄여 잘못된 결정의 위험을 크게 줄일 것으로 예측합니다.
주요 요점은 다음과 같습니다. AI 데이터 위반의 40%가 생성 AI 오용으로 인해 AI 관련 신뢰와 보안에 대한 투자를 보장해야합니다. 이러한 권장 사항은 기업이 Genai가 제기 한 문제를 다루기위한 명확한 가이드를 제공합니다.