وفقًا لأحدث تقرير بحثي صادر عن Gartner ، فإن الاستخدام الواسع النطاق لتكنولوجيا الذكاء الاصطناعي (GENAI) التوليدي سيؤدي إلى مخاطر كبيرة لأمن البيانات. تشير التقديرات إلى أنه بحلول عام 2027 ، سُعزى أكثر من 40 ٪ من انتهاكات البيانات المتعلقة بـ AI بشكل مباشر إلى سوء استخدام الذكاء الاصطناعي التوليدي. يبرز هذا التوقع التحديات الخطيرة التي تواجه المؤسسات في تبني تكنولوجيا Genai ، وخاصة في تدابير حوكمة البيانات والأمن.
مع التعميم السريع لتكنولوجيا GENAI ، فإن التحديات التي واجهتها المنظمات في سياق توطين البيانات بارزة بشكل خاص. أدى ارتفاع الطلب على قوة الحوسبة المركزية من هذه التقنيات إلى زيادة كبيرة في خطر تدفق البيانات عبر الحدود. أكد Joerg Fritsch ، نائب رئيس Gartner ، أن العديد من الشركات تفتقر إلى الإشراف اللازم عند دمج أدوات Genai ، مما يؤدي إلى إمكانية نقل البيانات الحساسة عن طريق الخطأ إلى مواقع غير معروفة ، مما يشكل مخاطر أمنية خطيرة.

يعد عدم وجود معايير حوكمة البيانات الموحدة في جميع أنحاء العالم تحديًا رئيسيًا آخر. أدى هذا الافتقار إلى التقييس إلى تجزئة السوق ، مما أجبر الشركات على تطوير استراتيجيات محددة لمناطق مختلفة ، مما لا يزيد من تكاليف التشغيل فحسب ، بل يحد أيضًا من قدرتها على استخدام منتجات وخدمات الذكاء الاصطناعى بشكل فعال على مستوى العالم. "إن تعقيد إدارة تدفقات البيانات ومشكلات صيانة الجودة الناتجة عن سياسات الذكاء الاصطناعى المترجمة يمكن أن يؤدي إلى انخفاض كبير في الكفاءة التشغيلية".
لمعالجة هذه المخاطر ، تحتاج الشركات إلى إجراء استثمارات استراتيجية في حوكمة الذكاء الاصطناعي والأمن. يتوقع Gartner أنه بحلول عام 2027 ، ستكون حوكمة الذكاء الاصطناعى مطلوبة بشكل عام في جميع أنحاء العالم ، خاصة في إطار قوانين ولوائح الذكاء الاصطناعى السيادي. ستواجه المنظمات التي تفشل في دمج نماذج الحوكمة اللازمة في الوقت المناسب عيوبًا تنافسية وقد تفقد فرص السوق.
لتقليل خطر انتهاك بيانات الذكاء الاصطناعي ، يوصي Gartner بأن تعتمد المؤسسات استراتيجية متعددة الجوانب: أولاً ، تعزيز حوكمة البيانات ، وضمان الامتثال للوائح الدولية ومراقبة نقل البيانات غير المتوقعة عبر الحدود ؛ ثانياً ، إنشاء لجنة حوكمة مخصصة لتحسين الشفافية في نشر الذكاء الاصطناعي ومعالجة البيانات ؛ أخيرًا ، اعتماد تقنيات أمان البيانات المتقدمة مثل التشفير وإجهاض لحماية المعلومات الحساسة.
بالإضافة إلى ذلك ، يجب على الشركات الاستثمار في منتجات إدارة الثقة والمخاطر والأمن (TRISM) المتعلقة بتكنولوجيا الذكاء الاصطناعي. ويشمل ذلك حوكمة الذكاء الاصطناعى ، وحوكمة أمن البيانات ، والتصفية السريعة والعمل الأحمر ، والتوليف لإنشاء بيانات غير منظمة. يتوقع Gartner أنه بحلول عام 2026 ، فإن الشركات التي تنفذ التحكم في الذكاء الاصطناعي ستقلل من المعلومات غير الدقيقة بنسبة 50 ٪ على الأقل ، مما يقلل بشكل كبير من خطر القرارات الخاطئة.
تشمل النقاط الرئيسية: سيتم تشغيل أكثر من 40 ٪ من انتهاكات بيانات الذكاء الاصطناعي عن طريق إساءة استخدام الذكاء الاصطناعي ؛ يجب على الشركات تعزيز حوكمة البيانات لضمان الامتثال والأمن ؛ يمكن أن يؤدي الاستثمار في منتجات الإدارة المرتبطة بـ AI ، والمخاطر والأمان ، إلى تقليل توليد المعلومات الخاطئة بشكل كبير. توفر هذه التوصيات أدلة واضحة للشركات للتعامل مع التحديات التي يطرحها Genai.