Gartnerの最新の調査レポートによると、生成的人工知能(Genai)テクノロジーの広範な使用は、重要なデータセキュリティリスクをもたらします。 2027年までに、AI関連のデータ侵害の40%以上が生成的人工知能の誤用に直接起因すると推定されています。この予測は、特にデータガバナンスとセキュリティ対策において、Genaiテクノロジーの採用における企業が直面している深刻な課題を強調しています。
Genaiテクノロジーの急速な普及により、データのローカリゼーションの文脈で組織が遭遇する課題は特に顕著です。これらのテクノロジーからの集中コンピューティングパワーに対する高い需要は、データの国境を越えた流れのリスクを大幅に増加させました。 Gartnerの副社長アナリストであるJoerg Fritschは、多くの企業がGenaiツールを統合する際に必要な監督を欠いており、その結果、機密データを不明な場所に誤って送信し、深刻なセキュリティリスクをもたらす可能性があると強調しました。

世界中の統一されたデータガバナンス基準の欠如は、もう1つの重要な課題です。この標準化の欠如は、市場の断片化につながり、企業はさまざまな地域の特定の戦略を開発することを余儀なくされ、運用コストを増加させるだけでなく、AI製品とサービスをグローバルに効果的に利用する能力も制限しています。 「データフローの管理の複雑さと、ローカライズされたAIポリシーによってもたらされる品質メンテナンスの問題は、運用効率の大幅な低下につながる可能性があります」とFritsch氏は述べています。
これらのリスクに対処するために、企業はAIガバナンスとセキュリティに戦略的投資を行う必要があります。ガートナーは、2027年までに、特に主権AIの法律と規制の枠組みの下で、AIガバナンスが一般的に世界中で必要になると予測しています。必要なガバナンスモデルをタイムリーに統合できない組織は、競争力のある不利益に直面し、市場機会を失う可能性があります。
AIデータ侵害のリスクを減らすために、ガートナーは、企業が多面的な戦略を採用することを推奨しています。第一に、データガバナンスを強化し、予期しない国境を越えたデータ転送を監視し、AIの展開とデータ処理の透明性を改善することを推奨します。
さらに、企業はAIテクノロジーに関連する信頼、リスク、セキュリティ管理(TRISM)製品に投資する必要があります。これには、AIガバナンス、データセキュリティガバナンス、プロンプトフィルタリング、赤いアクション、および非構造化データを生成する合成が含まれます。 Gartnerは、2026年までにAI TRISM制御を実施する企業が少なくとも50%不正確な情報を減らし、間違った決定のリスクを大幅に減らすと予測しています。
重要なポイントは、AIの誤用によって引き起こされるAIデータ違反の40%以上がトリガーされます。これらの推奨事項は、genaiによって提起された課題に対処するための企業が明確なガイドを提供します。