أجرت Microsoft مؤخرًا دراسة متعمقة لقدرات التفكير الأخلاقي لنماذج اللغة الكبيرة ، وخاصة في حالة مشكلة الترام الكلاسيكية. أظهرت النتائج أنه على الرغم من أن حجم النموذج يعتبر عمومًا تحسين الأداء ، فإن النماذج الكبيرة تؤدي أداءً سيئًا بشكل مدهش من حيث اتخاذ القرارات الأخلاقية. يتناقض هذا النتيجة تمامًا مع التوقعات الأولية للباحثين ، مما يؤدي إلى إعادة التفكير في الأوساط الأكاديمية للعلاقة بين التعقيد النموذجي وقدرة الحكم الأخلاقي.
ومع ذلك ، فإن نموذج اللغة الأقوى ، GPT-4 ، لا يزال أفضل أداء في الدرجات الأخلاقية ، مما يدل على قدرته الفائقة على التعامل مع القضايا الأخلاقية المعقدة. لا يعمل GPT-4 بشكل جيد على المستوى الفني فحسب ، بل وصلت قدرتها على التفكير الأخلاقي أيضًا إلى مستوى جديد ، والذي يوفر مرجعًا مهمًا للتطبيق المستقبلي للذكاء الاصطناعي في اتخاذ القرارات الأخلاقية.
نتائج هذه الدراسة لها آثار عميقة على مجال الذكاء الاصطناعي. لا يكشف فقط أن حجم النموذج وقدرة التفكير الأخلاقي ليسوا علاقة إيجابية بسيطة ، بل يؤكد أيضًا أنه عند تطوير نماذج لغة كبيرة ، ينبغي إيلاء المزيد من الاهتمام للتدريب والتحسين على المستويات الأخلاقية والأخلاقية. قد يدفع هذا الاستنتاج الباحثين إلى إعادة تصميم بنية النموذج لتحسين التوازن بين الأداء الفني مع الحكم الأخلاقي.
بالإضافة إلى ذلك ، أثارت هذه الدراسة أيضًا مناقشات مكثفة حول المعايير الأخلاقية للذكاء الاصطناعي. نظرًا لأن تقنية الذكاء الاصطناعى تستخدم على نطاق واسع في مختلف المجالات ، فإن كيفية التأكد من أن هذه التقنيات يمكن أن تتخذ قرارات معقولة في المواقف الأخلاقية المعقدة أصبحت مشكلة ملحة. يقدم هذا البحث من قبل Microsoft أدلة تجريبية لصياغة المعايير الأخلاقية ذات الصلة ويساعد على تعزيز التطور الصحي لصناعة الذكاء الاصطناعي.
بشكل عام ، لا يتحدى هذا البحث الذي أجرته Microsoft فهمنا المتأصل لأداء نماذج اللغة الكبيرة ، ولكنه يوفر أيضًا أفكارًا جديدة لاتجاه التنمية المستقبلية للذكاء الاصطناعي. من خلال تحسين قدرة التفكير الأخلاقي للنموذج بشكل مستمر ، من المتوقع أن نطور نظام ذكاء اصطناعي أكثر ذكاءً وأكثر تمشيا مع المعايير الأخلاقية البشرية ، ونقدم مساهمات أكبر في تقدم المجتمع.