Согласно последнему исследовательскому отчету Gartner, широкое использование технологии генеративного искусственного интеллекта (Genai) принесет значительные риски безопасности данных. По оценкам, к 2027 году более 40% связанных с ИИ-связанными в области нарушений данных будут непосредственно связаны с неправильным использованием генеративного искусственного интеллекта. Этот прогноз подчеркивает серьезные проблемы, с которыми сталкиваются предприятия в принятии технологии Genai, особенно в области управления данными и мер безопасности.
Благодаря быстрой популяризации технологии Genai, проблемы, с которыми сталкиваются организации в контексте локализации данных, являются особенно заметными. Высокий спрос на централизованную вычислительную мощность от этих технологий привел к значительному увеличению риска трансграничного потока данных. Джог Фрич, вице -президент Gartner, подчеркнул, что многим компаниям не хватает необходимого контроля при интеграции инструментов Genai, что приводит к возможности случайного передачи конфиденциальных данных в неизвестные местоположения, создавая серьезные риски безопасности.

Отсутствие единичных стандартов управления данными по всему миру является еще одной ключевой проблемой. Отсутствие стандартизации привело к фрагментации рынка, заставив компании разработать конкретные стратегии для различных регионов, что не только увеличивает эксплуатационные расходы, но также ограничивает их способность эффективно использовать продукты и услуги ИИ по всему миру. «Сложность управления потоками данных и проблемы с качеством обслуживания, вызванные локализованной политикой ИИ, может привести к значительному снижению операционной эффективности», - отметил Фрич.
Чтобы решить эти риски, компании должны сделать стратегические инвестиции в управление ИИ и безопасность. Гартнер предсказывает, что к 2027 году управление ИИ в целом требуется во всем мире, особенно в рамках суверенных законов и правил ИИ. Организации, которые не могут своевременно интегрировать необходимые модели управления, столкнутся с конкурентными недостатками и могут потерять рыночные возможности.
Чтобы снизить риск устранения данных искусственного интеллекта, Gartner рекомендует, чтобы предприятия приняли многопрофильную стратегию: во-первых, укрепление управления данными, обеспечить соблюдение международных правил и контролировать неожиданные трансграничные передачи данных;
Кроме того, компании должны инвестировать в продукты управления доверием, рисками и безопасности (TRISM), связанные с технологией искусственного интеллекта. Это включает в себя управление ИИ, управление безопасности данных, быстрое фильтрацию и красное действие, а также синтез для генерации неструктурированных данных. Gartner предсказывает, что к 2026 году предприятия, реализующие контроль AI Trism, уменьшат неточную информацию как минимум на 50%, значительно снижая риск неправильных решений.
Ключевые моменты включают в себя: более 40% нарушений данных AI будут запускаться с помощью генеративного злоупотребления ИИ; Эти рекомендации предоставляют предприятиям четкие руководства для решения проблем, связанных с Genai.