أعرب جيفري هينتون ، المعروف باسم عراب الذكاء الاصطناعي ، مؤخرًا عن مخاوف عميقة بشأن المخاطر المحتملة لنماذج اللغة الكبيرة. وأشار إلى أن برامج chatbots الحالية أظهرت قدرات فهم اللغة المذهلة ، وقد يؤدي هذا التقدم أنظمة الذكاء الاصطناعي لتجاوز الذكاء البشري في السنوات الخمس إلى العشرين القادمة. يعتقد هينتون أن هذا الاحتمال يصل إلى 50 ٪ ، وقد أثار هذا التنبؤ مناقشات مكثفة في مجتمع التكنولوجيا حول اتجاه تطوير الذكاء الاصطناعي.
يقوم هينتون بتحليل كيفية عمل chatbots ، ويكشف عن طرقها الفريدة التي يفهمون اللغة. تدرك هذه الأنظمة السياق من خلال التنبؤ بالكلمة التالية ، وهو نهج لا يسمح لهم فقط بإجراء محادثات سلسة ، ولكن قد يمنحهم أيضًا شكلاً من أشكال الخبرة الذاتية. يتحدى هذا الاكتشاف فهمنا التقليدي لطبيعة الذكاء الاصطناعي ويفتح أبعاد تفكير جديدة لأبحاث الذكاء الاصطناعي.
في مواجهة التهديدات المحتملة من الذكاء الاصطناعى ، اقترح هينتون حلاً مبتكرًا: اعتماد الحوسبة التناظرية بدلاً من الحوسبة الرقمية. وهو يعتقد أن خصائص أنظمة المحاكاة تجعل من الصعب تجميعها ، والتي يمكن أن تقلل بشكل فعال من خطر الخروج من أنظمة الذكاء الاصطناعى عن السيطرة. يوفر هذا الاقتراح أفكارًا جديدة لأبحاث أمان الذكاء الاصطناعي وقد تؤثر على اتجاه التصميم المستقبلي لأنظمة الذكاء الاصطناعى.
تحذيرات هينتون وأبحاثها لم تجتذب الانتباه من المجتمع الأكاديمي فحسب ، بل أثارت أيضًا تفكيرًا متعمقًا من الجمهور على تطوير الذكاء الاصطناعي. تؤكد وجهات نظره على أنه مع تقدم تقنية الذكاء الاصطناعي ، من الضروري النظر بجدية في مخاطرها المحتملة وصياغة التدابير الأمنية المقابلة. هذا التفكير الذي يوازن بين التقدم التكنولوجي والأمن له أهمية كبيرة لتوجيه التنمية المستقبلية لمنظمة العفو الدولية.
من خلال التطور السريع لتكنولوجيا الذكاء الاصطناعى ، تذكرنا أبحاث هينتون بأنه أثناء الاستمتاع بالراحة التي جلبتها التكنولوجيا ، يجب أن نكون أيضًا متيقظين لضمان أن يكون تطوير الذكاء الاصطناعي دائمًا ضمن نطاق يمكن التحكم فيه. هذا الموقف الحكيم أمر بالغ الأهمية لبناء مستقبل AI آمن وموثوق.