يكشف أحدث تقرير بحثي أصدرته جامعة فرجينيا للتكنولوجيا في الولايات المتحدة عن القيود الهامة لنموذج الذكاء الاصطناعي حول مسألة العدالة البيئية. وجدت هذه الدراسة ، التي تحلل بعمق قدرات تسليم المعلومات في ChatGPT في المقاطعات والمدن المختلفة ، ظاهرة تستحق الاهتمام: يميل النموذج إلى توفير المعلومات ذات الصلة للحالات المكتظة بالسكان ، بينما يتم التغاضي عن المناطق الريفية ذات المناطق الأقل سكانًا.
من خلال تقييم بشكل منهجي لأداء ChatGPT في مناطق جغرافية مختلفة ، وجد فريق البحث أن النموذج لديه تحيز جغرافي واضح عند التعامل مع القضايا المتعلقة بالعدالة البيئية. لا يؤثر هذا التحيز على الوصول العادل إلى المعلومات فحسب ، بل قد يؤدي أيضًا إلى قيادة صانعي السياسات لتجاهل الاحتياجات الخاصة للمناطق الريفية في عملية صنع القرار.
تجدر الإشارة إلى أن هذه الدراسة ليست المرة الأولى التي تواجه فيها ChatGpt مشكلة التحيز. أشارت الأبحاث السابقة إلى أن النموذج قد يكون له ميول سياسية ، مما يبرز التحديات التي تواجه أنظمة الذكاء الاصطناعى من حيث الإنصاف والموضوعية. أكد الباحثون أن هذه النتائج لها أهمية كبيرة لفهم قيود أنظمة الذكاء الاصطناعي.
استجابةً لهذا الاستنتاج ، دعا فريق البحث إلى المزيد من الأبحاث المتعمقة للكشف عن التحيزات الجغرافية والتأثيرات المحتملة لنموذج ChatGPT. يقترحون أن الأبحاث المستقبلية يجب أن تركز على كيفية تحسين أنظمة الذكاء الاصطناعي حتى يتمكنوا من توفير دعم معلومات أكثر إنصافًا لمناطق مختلفة ، وخاصة في القضايا الاجتماعية الرئيسية مثل العدالة البيئية.
لا يوفر هذا البحث توجيهات بحثية جديدة للباحثين في مجال الذكاء الاصطناعي فحسب ، بل يبدو أيضًا دعوة للاستيقاظ لصانعي السياسات ومطوري التكنولوجيا. إنه يذكرنا أنه عند تطوير ونشر أنظمة الذكاء الاصطناعي ، من الضروري النظر تمامًا في التأثير الاجتماعي الذي قد يكون لديهم ويتخذ تدابير فعالة لضمان إنصاف التكنولوجيا وإدراجها.