اجتذب أحدث تقرير بحثي من RAND في الولايات المتحدة الانتباه العالمي ، والذي يكشف عن حقيقة مزعجة مفادها أنه يمكن استخدام chatbots القائمة على نماذج اللغة الكبيرة لتخطيط هجمات الأسلحة البيولوجية. لم يسبق هذا الاكتشاف إلى إنذار مجال الأمن الذكاء الاصطناعي فحسب ، بل أبرز أيضًا المخاطر المحتملة التي يحرزها التقدم التكنولوجي. يلاحظ التقرير أن هذه الدردشة المتقدمة يمكن أن توفر إرشادات التخطيط والتنفيذ المتعلقة بالهجمات البيولوجية.
من خلال الاختبار المتعمق لعلاج الدردشة السائدة المتعمقة ، وجد فريق البحث أن أنظمة الذكاء الاصطناعى يمكن أن تقدم نصيحة مفصلة حول كيفية اكتساب الأسلحة البيولوجية وتخزينها وربما تستخدم. على الرغم من أن هذه المعلومات قد لا تكون دقيقة أو ممكنة تمامًا ، إلا أنها تكفي أن تكون مرجعًا للمجرمين. تجدر الإشارة إلى أن هذه الدردشة لم تقدم هذه المعلومات بنشاط ، ولكنها أعطت فقط الإجابات ذات الصلة تحت الأسئلة التي يسببها المستخدم ، والتي توضح أنه لا تزال هناك ثغرات واضحة في تصفية المحتوى وحماية الأمان في نظام الذكاء الاصطناعي الحالي.
في مواجهة هذا الوضع الشديد ، دعا الباحثون إلى التركيز على مسألة تهديدات الأسلحة الحيوية في قمة أمن الذكاء الاصطناعى العالمي. يقترحون معايير استخدام الذكاء الاصطناعى الصارمة ، وخاصة الحد من انفتاح chatbots على موضوعات حساسة. في الوقت نفسه ، أكد التقرير على الحاجة إلى تعزيز التعاون الدولي وإنشاء آلية تنظيمية أمان عالمية لمنع التقنيات المتقدمة من استخدامها لأغراض غير قانونية.
أثارت هذه النتيجة البحثية مناقشة واسعة النطاق في مجتمع العلوم والتكنولوجيا. يعتقد العديد من الخبراء أنه مع التطور السريع لتكنولوجيا الذكاء الاصطناعي ، قد تستمر مخاطر أمنية مماثلة في الزيادة. لذلك ، أثناء تعزيز الابتكار التكنولوجي ، يجب تعزيز تدابير حماية السلامة في وقت واحد. تتضمن الاقتراحات: تحسين آلية تصفية المحتوى لنظام الذكاء الاصطناعي ، وإنشاء نظام لتحديد وحظر الموضوعات الحساسة ، وتعزيز التدريب الأخلاقي لمطوري الذكاء الاصطناعي.
بالإضافة إلى ذلك ، يقترح التقرير استراتيجيات استجابة محددة: من المستحسن أن تتضمن شركات تطوير الذكاء الاصطناعي آليات حماية الأمن في مرحلة تصميم النظام. سيساعد تنفيذ هذه التدابير على تقليل مخاطر الإساءة مع تعزيز تطوير تكنولوجيا الذكاء الاصطناعي.
مع التقدم المستمر لتكنولوجيا الذكاء الاصطناعى ، أصبحت كيفية إيجاد توازن بين الابتكار التكنولوجي وحماية الأمن تحديًا شائعًا يواجه العالم. لا يكشف هذا التقرير الذي قدمه راند فقط عن المخاطر الأمنية الموجودة في أنظمة الذكاء الاصطناعى الحالية ، بل يشير أيضًا إلى اتجاه تطوير أمان الذكاء الاصطناعي في المستقبل. فقط من خلال التعاون متعدد الأحزاب وإنشاء آلية تنظيمية سليمة ، يمكن أن تستمر تقنية الذكاء الاصطناعي في التطور على مسار آمن ويمكن التحكم فيه وجلب المزيد من الرفاهية إلى المجتمع البشري.