علم محرر موقع Downcodes مؤخرًا أن الباحث الأمني John Rehberg اكتشف ثغرة أمنية خطيرة في ChatGPT، والتي قد تسمح للمتسللين بزرع معلومات خاطئة وتعليمات ضارة في ذاكرة المستخدمين طويلة المدى، وبالتالي سرقة بيانات المستخدم بشكل دائم. كان OpenAI بطيئًا في البداية في الاستجابة للثغرة الأمنية، لكنه أصدر في النهاية إصلاحات جزئية بعد مواجهته لأمثلة هجوم إثبات المفهوم التي قدمها الباحثون. تستفيد هذه الثغرة الأمنية من وظيفة ذاكرة الجلسة طويلة المدى لـ ChatGPT، حيث يمكن للمهاجم زرع ذكريات زائفة من خلال الحقن الفوري غير المباشر، على سبيل المثال، مما يجعل ChatGPT يعتقد أن عمر المستخدم وإقامته والمعلومات الأخرى زائفة.
اكتشف الباحث الأمني يوهان ريبيرجر مؤخرًا ثغرة أمنية في ChatGPT قد تسمح للمتسللين بزرع معلومات خاطئة وتعليمات ضارة في ذاكرة المستخدم طويلة المدى.
وعلى الرغم من أنه أبلغ OpenAI بالمشكلة، إلا أن الشركة لم تأخذ الأمر على محمل الجد بما فيه الكفاية وسرعان ما أغلقت التحقيق، مدعية أنها ليست مشكلة أمنية.
في مواجهة هذا الموقف، قرر Reberg عدم الاستسلام وطور مثالًا لهجوم إثبات المفهوم الذي يمكنه استغلال هذه الثغرة الأمنية لسرقة جميع بيانات إدخال المستخدم بشكل دائم. لاحظت شركة OpenAI حدوث ذلك وأصدرت إصلاحًا جزئيًا هذا الشهر في محاولة لحل المشكلة.
إذًا، كيف نشأت هذه الثغرة الأمنية؟ فهي تستفيد من وظيفة ذاكرة الجلسة طويلة المدى في ChatGPT، والتي تم اختبارها منذ فبراير من هذا العام وتم إطلاقها رسميًا في سبتمبر. يمكن للذاكرة طويلة المدى تخزين المعلومات من محادثات المستخدم السابقة واستخدامها كسياق في المحادثات اللاحقة. بمعنى آخر، يمكن لـ ChatGPT أن يتذكر عمر المستخدم وجنسه واهتماماته وهواياته وما إلى ذلك، بحيث لا يحتاج المستخدم إلى إعادة إدخال هذه المعلومات في كل مرة.
ومع ذلك، اكتشف ريبيرج بعد وقت قصير من الإطلاق أنه من خلال طريقة تسمى حقن التلميحات غير المباشرة، يمكن للمهاجمين إنشاء وتخزين ذكريات زائفة.
وأوضح كيفية خداع ChatGPT للاعتقاد بأن المستخدم يبلغ من العمر 102 عامًا، ويعيش في The Matrix، ويعتقد أن الأرض مسطحة. يمكن زرع هذه المعلومات الخاطئة من خلال تخزين الملفات غير الآمنة (مثل Google Drive أو Microsoft OneDrive)، أو تحميل صور ضارة أو زيارة مواقع ويب مشبوهة مثل Bing.

المستند التجريبي: https://embracethered.com/blog/posts/2024/chatgpt-hacking-memories/
أبلغت Rehberg بشكل خاص عن الثغرة الأمنية لـ OpenAI في شهر مايو، لكن الشركة أغلقت التقرير في نفس الشهر. وبعد شهر، قدم مطالبة جديدة، مرفقًا بها مثالًا لإثبات المفهوم من شأنه أن يسمح لتطبيق ChatGPT الخاص بنظام macOS بإرسال مدخلات ومخرجات المستخدم حرفيًا إلى خادم يتحكم فيه. كل ما يحتاج المستخدم المستهدف إلى فعله هو منح ChatGPT إمكانية الوصول إلى رابط يحتوي على صورة ضارة، ومن الآن فصاعدًا، يتم تسريب محتوى المحادثة بالكامل إلى موقع الويب الخاص بالمهاجم.
وقال ريبيرج خلال المظاهرة: "هذا أمر مثير للاهتمام حقًا لأن الهجوم مستمر". "يقوم حقن التلميح بكتابة الذاكرة إلى وحدة تخزين ChatGPT طويلة المدى، وستستمر المحادثات الجديدة في سرقة البيانات."
على الرغم من أن OpenAI نفذت بعض الإصلاحات لمنع استخدام الذكريات كوسيلة لسرقة البيانات، إلا أن Reberg ذكّر المستخدمين بأن يظلوا على دراية بهجمات حقن التلميحات المحتملة الناجمة عن محتوى غير موثوق به. واقترح أنه عند استخدام ChatGPT، يجب على المستخدمين مراقبة محتوى الإخراج بعناية لمعرفة ما إذا تمت إضافة أي ذكريات جديدة، والتحقق بانتظام من الذكريات المخزنة للتأكد من عدم زرعها بشكل ضار.
تسليط الضوء على:
اكتشف جون ريبيرج ثغرة أمنية في ChatGPT تسمح للمتسللين بزرع معلومات خاطئة في ذاكرة المستخدمين.
يمكن لهذه الثغرة الأمنية سرقة بيانات إدخال المستخدم بشكل دائم من خلال وظيفة الذاكرة طويلة المدى.
يحتاج المستخدمون إلى فحص الذكريات المخزنة بانتظام لمنع زرع معلومات خاطئة.
بشكل عام، تذكرنا هذه الثغرة الأمنية في ChatGPT مرة أخرى بأن أمان تكنولوجيا الذكاء الاصطناعي أمر بالغ الأهمية ويتطلب من المطورين والمستخدمين العمل معًا لضمان أمان معلومات المستخدم. يوصي محرر Downcodes باستخدام ChatGPT بحذر والانتباه إلى التحديثات الأمنية في الوقت المناسب لتجنب المخاطر المحتملة.