واجه Openai مؤخرًا شكوى خصوصية من النرويج بسبب إصدار المعلومات الخاطئة التي تم إنشاؤها بواسطة ChatGPT. تم دعم القضية من قبل مجموعة Noyb للدعوة للخصوصية ، وهو صاحب شكوى يدعى Alf Harmar Hallmen. لقد شعر بالصدمة والغضب عندما اكتشف أن تشاتغبت قد ادعى عن طريق الخطأ أنه قد أدين بقتل طفلين ومحاولة قتل طفل ثالث.
تضمنت شكاوى الخصوصية السابقة حول chatgpt بعض أخطاء البيانات الشخصية الأساسية ، مثل تاريخ الميلاد غير الدقيق أو معلومات السيرة الذاتية. المشكلة الرئيسية هي أن Openai لا يوفر طريقة فعالة للأفراد لتصحيح رسائل الخطأ التي تم إنشاؤها بواسطة الذكاء الاصطناعى. عادة ، يمنع Openai الاستجابات التي تولد رسائل الخطأ هذه. ومع ذلك ، بموجب لائحة حماية البيانات العامة للاتحاد الأوروبي (GDPR) ، فإن الأوروبيين لديهم مجموعة من حقوق الوصول إلى البيانات ، بما في ذلك الحق في تصحيح البيانات الشخصية.
أشار Noyb إلى أن الناتج المحلي الإجمالي ينص على أن البيانات الشخصية يجب أن تكون دقيقة وأنه إذا كانت المعلومات غير دقيقة ، فإن للمستخدمين الحق في طلب التصحيح. قال محامي نويب النبيلة سودربيري إن Openai أضاف ببساطة إخلاء المسئولية في الأسفل ، مدعيا أن "Chatgpt قد يرتكب أخطاء" ليس إخلاء المسئولية. وفقًا للناتج المحلي الإجمالي ، تقع على عاتق مطوري الذكاء الاصطناعى التأكد من أن المعلومات التي ينشئونها لا تنشر محتوى خاطئًا خطيرة.
يمكن أن تؤدي انتهاكات الناتج المحلي الإجمالي إلى غرامات تصل إلى 4 ٪ من الدخل السنوي العالمي. في ربيع عام 2023 ، تم تمنع منظم حماية البيانات في إيطاليا بشكل مؤقت إلى ChatGPT ، وهو مقياس دفع Openai لضبط إفصاح معلومات المستخدم الخاص به. ومع ذلك ، في السنوات الأخيرة ، اتبعت منظمو الخصوصية في أوروبا مقاربة أكثر حذراً تجاه الذكاء الاصطناعى التوليدي بحثًا عن حلول تنظيمية مناسبة.
تهدف شكوى Noyb الجديدة إلى جذب مخاوف المنظمين بشأن المخاطر المحتملة لتوليد معلومات كاذبة. شاركوا لقطة شاشة لتفاعلهم مع chatgpt ، مما يدل على أن الذكاء الاصطناعى أنتجت تاريخًا كاذبًا ومقلقًا تمامًا ردًا على سؤال حول الساعات. هذا الحادث غير معزول ، ويشير Noyb أيضًا إلى الحالات التي يعاني فيها المستخدمون الآخرون من تلف مماثل في المعلومات.
على الرغم من أن Openai أوقف مزاعم كاذبة ضد Hallmen بعد تحديث النموذج ، إلا أن Noyb و Hallmen أنفسهم كانوا قلقين من الاحتفاظ بالمعلومات الخاطئة في نموذج الذكاء الاصطناعى. قدمت Noyb شكوى إلى وكالة حماية البيانات النرويجية وتتطلع إلى أن المنظمين قادرين على التحقيق في هذا.
النقاط الرئيسية:
يدعم NOYB فردًا نرويجيًا يقدم شكوى خصوصية ضد ChatGPT ، متهمة بتوليد معلومات خاطئة.
وفقًا للناتج المحلي الإجمالي ، يجب أن تكون البيانات الشخصية دقيقة وفشل Openai في تلبية هذا المطلب.
يأمل Noyb أن تجذب هذه الشكوى انتباه المنظمين إلى قضايا المعلومات الخاطئة من الذكاء الاصطناعي.