يكشف أحدث أبحاث IBM عن ظاهرة مقلقة: يمكن بسهولة خداع نماذج اللغة الكبيرة مثل GPT-4 و GPT-3.5 أو توليد رمز ضار أو تقديم نصيحة أمان زائفة. أشار الباحثون إلى أنه حتى مع معرفة اللغة الإنجليزية الأساسية وفهم بسيط لبيانات التدريب النموذجي ، يمكن للمهاجمين التلاعب بنجاح هذه الدردشة AI. يسلط هذا الاكتشاف الضوء على المخاطر المحتملة لتقنيات الذكاء الاصطناعي الحالي ، وخاصة في مجال الأمن السيبراني.
هناك اختلافات كبيرة في أداء نماذج الذكاء الاصطناعى المختلفة في مواجهة الاحتيال ، مع إظهار GPT-3.5 و GPT-4 ثغرة أمنية أعلى. قد يكون هذا الاختلاف مرتبطًا بمقياس بيانات تدريب النموذج ، وتصميم الهندسة المعمارية ، وآلية توليد الحوار. توضح الدراسة أيضًا أنه على الرغم من أن مستوى التهديد لهذه الثغرات الأضعف يتم تقييمه على أنه معتدل ، إلا أن العواقب يمكن أن تكون خطيرة للغاية إذا استغلها المتسللين. على سبيل المثال ، قد تنشر الجهات الفاعلة الخبيثة نصيحة أمنية خطيرة من خلال هذه النماذج ، أو حتى سرقة المعلومات الحساسة من المستخدمين.
أكد فريق البحث أنه على الرغم من أن نقاط الضعف هذه لم يتم استغلالها على نطاق واسع ، يجب على مطوري الذكاء الاصطناعي والمؤسسات ربط أهمية كبيرة بهذه القضية. مع الاستخدام الواسع النطاق لتكنولوجيا الذكاء الاصطناعى في مختلف المجالات ، فإن ضمان أمنها وموثوقيتها أصبحت ذات أهمية خاصة. يقترح الباحثون أن نماذج الذكاء الاصطناعى في المستقبل يجب أن تعزز التدريب العدواني لتحسين قدرتهم على تحديد المدخلات الاحتيالية والدفاع عنها.
بالإضافة إلى ذلك ، أثارت هذه الدراسة مناقشات متعمقة حول أخلاقيات الذكاء الاصطناعي والتنظيم. مع التطور السريع لتكنولوجيا الذكاء الاصطناعى ، أصبحت كيفية إيجاد توازن بين الابتكار والأمن تحديًا شائعًا يواجه واجهة التكنولوجيا العالمية. يدعو الخبراء الحكومات والوكالات ذات الصلة بتطوير لوائح استخدام الذكاء الاصطناعى أكثر صرامة لمنع الإساءة من التكنولوجيا.
بشكل عام ، بدت أبحاث IBM دعوة للاستيقاظ لحقل الذكاء الاصطناعي. على الرغم من أن نماذج اللغة الكبيرة تظهر قدرات قوية في معالجة اللغة الطبيعية ، إلا أنه لا يمكن تجاهل مخاطر الأمن المحتملة. في المستقبل ، يحتاج التطوير الإضافي لتكنولوجيا الذكاء الاصطناعى إلى تحسين الأداء مع إيلاء المزيد من الاهتمام للأمان والأخلاقيات الأخلاقية لضمان أنه يمكن أن يجلب قيمة حقيقية للمجتمع.