خلال عطلة العيد الوطني هذا العام، ظهر عدد كبير من مقاطع الفيديو الساخرة لـ "دبلجة Lei Jun AI" على Douyin وBilibili ومنصات أخرى، مما تسبب في مشكلة كبيرة لـ Lei Jun نفسه وXiaomi.
في مقاطع الفيديو الساخرة هذه، أدلى "Lei Jun" بتعليقات حادة حول مواضيع ساخنة مثل الاختناقات المرورية والعطلات، بالإضافة إلى بعض الإساءات غير اللائقة. تصل عدد مشاهدات بعض مقاطع الفيديو المحاكاة الساخرة القصيرة إلى مئات الملايين في غضون أيام قليلة. ردًا على ذلك، أصدر لي جون نفسه مقطع فيديو قصيرًا في نهاية شهر أكتوبر، قال فيه إنه يأمل أن يتوقف الجميع عن اللعب. أنا غير مرتاح للغاية. نعم، هذا ليس بالأمر الجيد.
وفي حديثه عن الحادثة المذكورة أعلاه، قال جاو تينغ، نائب رئيس الأبحاث في شركة جارتنر، لموقع Jiemian News، إن المعلومات الكاذبة لا تزال معلومات مزيفة في جوهرها، لكن ضررها تضاعف في عصر النماذج الكبيرة.
وفقًا لأحد ممارسي أمن المعلومات، هناك المزيد والمزيد من مقاطع الفيديو الساخرة لـ "دبلجة الذكاء الاصطناعي لـ Lei Jun"، ويرجع ذلك أساسًا إلى أن شركة خارجية للذكاء الاصطناعي تروج لوظيفة استنساخ الصوت. يُعرف هذا النوع من الميمات لدى الجمهور باسم تقليد الذكاء الاصطناعي، وهناك خطر ضئيل لنشر معلومات كاذبة. تكمن صعوبة إدارة المنصة في أنه من المستحيل تحديد ما إذا كان المشاهير يعارضون التصيد الذي يقوم به مستخدمو الإنترنت، أو ما إذا كانوا سعداء برؤية النتائج لأغراض التسويق. ومن الصعب على المنصة صياغة استراتيجية حوكمة أمام الأطراف بشكل واضح إبداء موافقتهم أو اعتراضهم.
في المقابل، غالبًا ما تؤدي شائعات الذكاء الاصطناعي المستندة إلى الأخبار إلى ضرر اجتماعي أكبر. ووجد البحث في موقع Jiemian News أن حوادث مماثلة وقعت عدة مرات هذا العام.
في الآونة الأخيرة، تم تغريم عمة شاندونغ بمبلغ 160 ألف يوان صيني لبيع الفاكهة في كشك. ورد المكتب التنظيمي بأنها لم تدفع غرامة قدرها 1.45 مليون يوان صيني، وحكمت المحكمة على ذلك وتم تداوله على نطاق واسع على حسابات WeChat العامة وغيرها من المنصات، وأثارت أيضًا العديد من المناقشات بين مستخدمي الإنترنت. ومع ذلك، بعد التحقق من قبل الإدارات ذات الصلة، تم إنشاء هذه المقالة بواسطة شركة MCN في تشانغشا من أجل زيادة حجم قراءة الحساب العام وإيرادات الشركة، باستخدام المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي لجذب الانتباه. وقبل ذلك، استخدمت العديد من منصات الفيديو القصيرة أيضًا الذكاء الاصطناعي لتلفيق أخبار مثل "الزلزال" و"سرقة شاحنة نقل الأموال". وقد جلبت هذه المحتويات درجة معينة من الذعر لمستخدمي الإنترنت الذين لم يعرفوا الحقيقة.
فيما يتعلق بالأخبار المزيفة التي جلبها الذكاء الاصطناعي، فقد أوضحت منصات المحتوى المختلفة أنها ستتخذ إجراءات صارمة ضدها. وقال الشخص المعني المسؤول عن مركز Douyin الأمني إن المنصة ستتعامل بشدة مع المعلومات الكاذبة بمجرد اكتشافها، بغض النظر عما إذا كانت قد تم إنشاؤها بواسطة الذكاء الاصطناعي أم لا. في الوقت نفسه، بالنسبة للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، على أساس الامتثال لقواعد محتوى المجتمع، يطلب Douyin من الناشرين وضع علامة بارزة على المحتوى لمساعدة المستخدمين الآخرين على التمييز بين الواقع الافتراضي والواقع، خاصة في المشاهد المربكة.
ومع ذلك، وفقًا لموقع Jiemian News، تكمن صعوبة التحكم في الأخبار المزيفة التي يولدها الذكاء الاصطناعي في ارتفاع تكلفة التحقق، ومن الصعب على المنصة الحكم على صحة المعلومات من تلقاء نفسها، وفي كثير من الحالات، يُطلب من السلطات التنظيمية ذلك التدخل، ولكن لم يتم التحقق من المعلومات ذات الصلة أثناء عملية التحقق، وقد انتشرت بسرعة.
بالإضافة إلى التأثير السلبي الذي تحدثه المعلومات الكاذبة على سمعة الشركة والنظام الطبيعي للحياة الاجتماعية، فإن لها أيضًا تأثيرًا على أمان شبكة الشركة مثل "التصيد الاحتيالي" أو "الاستيلاء على الحساب". في السابق، كانت هناك حادثة في الصناعة حيث استخدم المحتالون تقنية الذكاء الاصطناعي لتقليد صوت الرئيس التنفيذي لشركة طاقة والاحتيال على المديرين التنفيذيين للشركة بملايين الدولارات. كانت الجرس والنغمة واللهجة الناتجة عن الذكاء الاصطناعي نابضة بالحياة لدرجة أن المدير التنفيذي لم يدرك أنها كانت عملية احتيال.
وقال غاو تينغ إن الذكاء الاصطناعي التوليدي أدى إلى هجمات أكثر تدميراً وواقعية، والتي يصعب على البشر التعرف عليها وتمنعها التقنيات التقليدية، وستتسبب في خسائر أكبر للشركات.
تتضاءل تكلفة إنتاج معلومات كاذبة أكثر فأكثر، لكن التأثير السلبي أصبح أكثر وضوحًا. ومن الصعب حل المشكلة بشكل كامل فقط من خلال طرق التحقق اليدوية التقليدية. وقال خبراء الأمن الفني المذكورون أعلاه إننا بحاجة إلى المزيد من التقنيات الناشئة لحل مشكلة إدارة المعلومات الزائفة. يستخدم بعض الأشخاص وسائل تقنية لإنشاء معلومات كاذبة. يجب أن يكون خبراء الأمن الفني قادرين على تحديد خصائص هذه المعلومات الكاذبة ومكافحتها من خلال الوسائل التقنية وحل المشكلة من المصدر.
في مجال أمن المعلومات، توصل العديد من الخبراء الفنيين إلى بعض الإجماع الأولي حول إدارة المعلومات الزائفة ويعتبرون "أمن المعلومات الزائفة" اتجاهًا بحثيًا تقنيًا جديدًا.
على وجه التحديد، يتضمن "أمن المعلومات المضللة" سلسلة من التقنيات التي يمكنها ضمان النزاهة وتقييم الصحة ومنع انتحال الشخصية وتتبع انتشار المعلومات الضارة في نشر المعلومات. المبدأ الكامن وراء ذلك هو استخدام نماذج لغوية كبيرة لتتبع المحتوى على وسائل التواصل الاجتماعي، والتحقق من سلامة الاتصالات في الوقت الفعلي، والتأكد من صحة وسائط الطرف الثالث، وما إلى ذلك.
تُدرج مؤسسة جارتنر "أمن المعلومات الزائفة" كأحد اتجاهات التكنولوجيا المهمة ضمن أهم عشرة اتجاهات تقنية استراتيجية متوقعة لعام 2025. وتعتقد الوكالة أن تكنولوجيا "أمن المعلومات الزائفة" ستنتج فوائد تجارية كبيرة في غضون سنة إلى ثلاث سنوات القادمة.
من وجهة نظر الممارسة البحثية، أثبتت بعض التقنيات فعاليتها. أظهرت دراسة من جامعة كاليفورنيا أن العلامات السياقية التي تزود المستخدمين بتفاصيل مثل السياق وتفسيرات الأخطاء والمحتوى الرسمي ذي الصلة يمكن أن تساعد في تقليل انتشار المحتوى الزائف. تستخدم منصات المحتوى الخارجية مثل فيسبوك وX الذكاء الاصطناعي وغيره من الوسائل التقنية لتدريب أنظمتها على اكتشاف كميات هائلة من المعلومات وتصنيفها تلقائيًا للتغلب على قيود التحقق اليدوي. تتمتع هذه الدراسات والممارسات أيضًا بأهمية مرجعية قوية لمنصات المحتوى المحلي.
بالنسبة للمشكلات مثل عمليات التصيد الاحتيالي التي يسببها الذكاء الاصطناعي التوليدي، يمكن للشركات والمؤسسات الاستجابة بمجموعة كاملة من الحلول التقنية. علمت Jiemian News أن العديد من شركات الإنترنت المحلية مثل 360 وAnt Financial تعمل بالفعل على تطوير حلول تعتمد على نماذج كبيرة، وتحاول تحديد المزيد من المخاطر من خلال الوصول إلى البيانات وتحليلها، والتحليل والحكم، وتحقيقات التتبع.