تكشف أحدث أبحاث Google عن مشكلة رئيسية: نماذج اللغة الكبيرة تواجه صعوبة في تصحيح أخطاء التفكير بشكل فعال في غياب التوجيه الخارجي. هذا الاكتشاف له أهمية كبيرة في مجال الذكاء الاصطناعي ، خاصة عند تطوير التطبيقات التي تتطلب أمنًا وموثوقية عالية. وجد الباحثون أنه عندما تعتمد النماذج فقط على آلياتها الداخلية لتصحيح ردود الفعل الأولية ، فإنها غالباً ما تقع في دورة من الأخطاء التي لا يمكن أن تحقق التصحيح الذاتي الحقيقي.
من خلال التجارب ، وجد فريق البحث أنه على الرغم من أن نماذج متعددة يمكنها تحقيق ما يسمى "التوافق الذاتي" إلى حد ما من خلال التصويت ، لا تزال هناك فجوة كبيرة بين هذه الآلية والتصحيح الذاتي الحقيقي. قد يخفي هذا الاتساق السطحي عيوب التفكير المتأصلة في النموذج ولا يمكنها حل مشكلة الأحكام الخاطئة بشكل أساسي. يذكرنا هذه النتيجة أنه عند تقييم أداء نموذج اللغة ، لا يمكننا الاعتماد فقط على مقاييس الاتساق السطحي.
هذه الدراسة لها تأثير عميق على مجال أمن الذكاء الاصطناعي. في سيناريوهات التطبيق عالية الخطورة مثل التشخيص الطبي والتشاور القانوني ، تكون قدرة التصحيح الذاتي للنموذج أمرًا بالغ الأهمية. تُظهر نتائج البحث أن نماذج اللغة الحالية لا تزال تتطلب إشرافًا خارجيًا وآليات تدخل لضمان دقة وموثوقية إنتاجها. هذا يوفر مرجعًا مهمًا لتصميم أنظمة الذكاء الاصطناعي المستقبلي.
يشدد الباحثون على أنه على الرغم من أن النموذج الحالي له قيود في التصحيح الذاتي ، فإن هذا لا يعني أننا يجب أن نتخلى عن الاستكشاف. بدلاً من ذلك ، تشير هذه الدراسة إلى اتجاه التحسينات المستقبلية. ودعوا إلى الاستمرار في التطوير لآليات التصحيح الذاتي الأكثر تقدماً بناءً على الفهم الكامل لإمكانات وقيود النموذج. قد يشمل ذلك إدخال بيانات متعددة الوسائط ، وقدرات الاستدلال المحسّنة ، وإنشاء نظام أكثر اكتمالا للكشف عن الأخطاء.
وقد أثار هذا البحث أيضًا تفكيرًا متعمقًا على طريق تنمية الذكاء الاصطناعي. إنه يذكرنا أنه أثناء متابعة حجم النموذج والأداء ، لا ينبغي تجاهل قدرتها المتأصلة في التفكير وآلية التصحيح الذاتي. قد تستكشف الأبحاث المستقبلية طرقًا جديدة للجمع بين قواعد المعرفة الخارجية وعمليات التفكير الداخلي لتعزيز قدرات التصحيح الذاتي للنموذج.
بشكل عام ، بدا هذا البحث الذي أجرته Google DeepMind دعوة للاستيقاظ لمجال الذكاء الاصطناعي وأشار أيضًا إلى الأمام. ويؤكد أنه عند تطوير نماذج لغة كبيرة ، ينبغي إيلاء المزيد من الاهتمام لزراعة وتقييم قدرات تصحيح الذات. سيؤدي هذا الاكتشاف إلى دفع تقنية الذكاء الاصطناعي نحو اتجاه أكثر أمانًا وموثوقية ، مما يضع الأساس لبناء أنظمة ذكية حقًا.