يوضح أحدث تقرير لـ Gartner أن الهجمات الإلكترونية التي تعمل من الذكاء الاصطناعي أصبحت أكبر مخاطر تواجه المؤسسات ، وتم تصنيفها لأول مرة لمدة ثلاثة أرباع. يعتمد هذا التقرير على دراسة استقصائية شملت 286 من المديرين التنفيذيين للمخاطر والمراجعة ، وأعرب 80 ٪ من المجيبين عن قلقهم بشأن الهجمات الخبيثة المحسنة من الذكاء الاصطناعي. يستخدم المهاجمون منظمة العفو الدولية لكتابة البرامج الضارة ، وإنشاء رسائل بريد إلكتروني واقية من التصيد ، وحتى إجراء هجمات رفض الخدمة الموزعة على نطاق واسع. يقلل تطبيق الذكاء الاصطناعى من عتبة جرائم الإنترنت ، مما يسمح للمهاجمين ذوي المستويات الفنية المنخفضة بتنفيذ هجمات إلكترونية معقدة بسهولة ، والتي تشكل تحديات شديدة لحماية أمن المؤسسات.
وفقًا لتقرير آخر صدره Gartner ، أصبح تطبيق الذكاء الاصطناعي (AI) في الهجمات الإلكترونية أكبر مخاطر تواجه المؤسسات لثلاث أرباع متتالية.
قامت شركة الاستشارات بمسح 286 من كبار المسؤولين التنفيذيين للمخاطر والمراجعة بين يوليو وسبتمبر ووجدت أن 80 ٪ من المجيبين أعربوا عن مخاوف عميقة بشأن الهجمات الخبيثة المحسنة من الذكاء الاصطناعي. هذا الاتجاه ليس مفاجئًا ، حيث يوجد دليل على أن الهجمات الإلكترونية التي تستخدم الذكاء الاصطناعي آخذة في الارتفاع.

ملاحظات مصدر الصورة: يتم إنشاء الصورة بواسطة الذكاء الاصطناعي ، ومزود الخدمة المعتمد Midjourney
يسرد التقرير أيضًا بعض المخاطر الناشئة الأخرى ، بما في ذلك المعلومات التي يتم بمساعدة AI المضلل ، وزيادة الاستقطاب السياسي ، وتخصيص المواهب التنظيمية غير المتطابقة. يستخدم المهاجمون الذكاء الاصطناعي لكتابة البرامج الضارة ، وصنع رسائل البريد الإلكتروني للتصيد ، وأكثر من ذلك. خذ HP على سبيل المثال ، اعترض الباحثون حملة بريد إلكتروني تنشر البرامج الضارة في يونيو ، واشتبه في أن البرامج النصية الخاصة بها قد كتبت بمساعدة الذكاء الاصطناعى. البرنامج النصي منظم جيدًا ويحتوي كل أمر على تعليقات ، وهو أمر غير شائع في الكتابة اليدوية.
وفقًا للبيانات من شركة Security Vipre ، زاد عدد هجمات الاحتيال في البريد الإلكتروني بنسبة 20 ٪ في الربع الثاني من عام 2023 مقارنة مع نفس الفترة من العام الماضي ، حيث تم إنشاء ما يقرب من 50 ٪ منها بواسطة الذكاء الاصطناعي. المديرين التنفيذيين ، HRS وموظفو تكنولوجيا المعلومات هم الأهداف الرئيسية. قال كبير مسؤولي المنتجات والتكنولوجيا في Vipre ، إن المجرمين يستخدمون خوارزميات AI متطورة لإنشاء رسائل بريد إلكتروني مختلطة مقنعة تحاكي نغمة وأسلوب الاتصالات المشروعة.
بالإضافة إلى ذلك ، عانت مواقع البيع بالتجزئة بمعدل 569،884 هجمات تعمل بالطاقة في اليوم ، وفقًا لتقرير أبحاث التهديد في شركة Imperva. أشار الباحثون إلى أن أدوات مثل ChatGpt و كلود وجيميني ، وكذلك الروبوتات المتخصصة في بيانات تزحف موقع الويب لتدريب نماذج اللغة الكبيرة ، يتم استخدامها لأداء أنشطة مثل رفض هجمات الخدمة الموزعة وإساءة استخدام منطق الأعمال.
أقر المزيد والمزيد من المتسللين الأخلاقيين باستخدام الذكاء الاصطناعى التوليدي ، حيث ترتفع النسبة المئوية من 64 ٪ إلى 77 ٪. يقول الباحثون إن منظمة العفو الدولية يمكن أن تساعد في الهجمات متعددة القنوات ، وهجمات حقن الفشل والهجمات التلقائية ، والتي يمكن أن تهاجم أجهزة متعددة في وقت واحد. على هذا النحو ، إذا اعتقد "الأشخاص الطيبون" أن الذكاء الاصطناعي مفيد ، فإن "الأشخاص السيئين" سيستخدمون هذه التكنولوجيا أيضًا.
إن ارتفاع الذكاء الاصطناعي ليس مفاجئًا لأنه يقلل من عتبة جرائم الإنترنت ، مما يسمح للمجرمين ذوي المستويات الفنية المنخفضة لاستخدام الذكاء الاصطناعي لتوليد بوابات الشبكة العميقة ، وإجراء الاستطلاع ، إلخ. طور الباحثون في المعهد السويسري الفيدرالي للتكنولوجيا مؤخرًا نموذجًا يمكنه حل مشكلة Google Recaptcha V2 100 ٪. تنبأ المحللون في شركة الأمن RADWare في وقت مبكر من هذا العام بأن ظهور نماذج GPT الخاصة سيستخدم لأغراض ضارة ، وسيزيد عدد نقاط الضعف في اليوم الصفر والاحتيال العميق وفقًا لذلك.
أشار غارتنر أيضًا إلى أن القضايا الرئيسية التي يعاني منها بائعو تكنولوجيا المعلومات كانت مدرجة في قائمة المدير التنفيذي لأول مرة. وقال زاكاري جينسبورغ ، كبير المديرين لممارسة المخاطر والمراجعة في غارتنر ، إن العملاء الذين يعتمدون مركزيا على مورد واحد قد يواجهون مخاطر أعلى. تمامًا مثل الحادث الذي وقع فيه Dstrike في يوليو ، شلل 8.5 مليون جهاز Windows في جميع أنحاء العالم ، مما تسبب في آثار هائلة على خدمات الطوارئ والمطارات ووكالات إنفاذ القانون.
باختصار ، أصبح تأثير السيف المزدوج لتكنولوجيا الذكاء الاصطناعي بارزًا بشكل متزايد. تهاجم الشبكة وضمان أمانها في العصر الرقمي.