أصدر معهد أبحاث الذكاء الآلي (MIRI) بياناً دعا فيه العالم إلى التوقف عن تطوير أنظمة الذكاء الاصطناعي الأكثر ذكاءً من البشر، معتقداً أن مخاطرها المحتملة قد تؤدي إلى زوال البشرية. وقد حظيت هذه الدعوة بدعم بعض قادة صناعة التكنولوجيا، لكنها أثارت جدلاً أيضًا. وشددت MIRI على أن السرعة الحالية لتطوير الذكاء الاصطناعي سريعة جدًا ومن الصعب على الإشراف التشريعي مواكبتها، لذلك هناك حاجة إلى المزيد من التدابير الاستباقية، مثل التثبيت الإلزامي لـ "مفاتيح إيقاف التشغيل"، للتعامل مع السلوكيات الضارة المحتملة للذكاء الاصطناعي. مخاطر لا يمكن التنبؤ بها. ويعتقد المعهد أن تطوير أنظمة الذكاء الاصطناعي الأكثر تقدمًا لا يمكن أن يستمر إلا إذا تم التأكد من أن الذكاء الاصطناعي آمن ويمكن التحكم فيه.
دعا معهد أبحاث الذكاء الآلي (MIRI)، وهو مجموعة بحثية غير ربحية، العالم إلى وقف الأبحاث النموذجية الأساسية أو "المتطورة"، خوفًا من أن تهدد مشكلات السلامة بقاء الإنسان. النموذج الأساسي هو نظام ذكاء اصطناعي يمكن تطبيقه على أوضاع متعددة. تعتقد MIRI أن النموذج الأساسي سيكون أكثر ذكاءً من البشر ولديه القدرة على "تدمير البشرية".

وفي مجال التكنولوجيا، دعا بعض الشخصيات الرائدة، بما في ذلك إيلون ماسك وستيف وزنياك، إلى وقف تطوير النماذج الأساسية الأكثر قوة من GPT-4 من شركة OpenAI. لكن MIRI تريد أن تذهب خطوة أبعد، مع استراتيجية اتصالات تم الكشف عنها مؤخرًا تدعو إلى الوقف الكامل لمحاولات بناء أي أنظمة أكثر ذكاءً من البشر.
وقالت المجموعة: "يتعامل صناع السياسات مع المشاكل في المقام الأول من خلال التسوية: فهم يستسلمون في مكان ما للحصول على شيء ما في مكان آخر. ونخشى أن يمر الكثير من التشريعات المطلوبة للحفاظ على بقاء الإنسان عبر العملية السياسية المعتادة وأن يتآكل ويتحول إلى تسوية غير فعالة". وفي الوقت نفسه، فإن الساعة تدق بينما تستمر مختبرات الذكاء الاصطناعي في الاستثمار في تطوير وتدريب أنظمة أكثر قوة.
تريد MIRI من الحكومة أن تجبر الشركات التي تطور النماذج الأساسية على تثبيت "مفاتيح التوقف" التي يمكنها إيقاف أنظمة الذكاء الاصطناعي إذا طورت ميولًا ضارة أو "خطيرة".
وقالت المنظمة غير الربحية إنها تظل ملتزمة بفكرة أن تكون الأنظمة الذكية أكثر ذكاءً من البشر، لكنها تريد بنائها "حتى نعرف كيفية بناء هذا النوع من الذكاء الاصطناعي بأمان".
تأسست MIRI في عام 2000 على يد إليعازر يودكوفسكي، مع مؤيدين من بينهم بيتر ثيل وفيتاليك بوتيرين، المؤسس المشارك للعملة المشفرة إيثريوم. يعد معهد مستقبل الحياة أيضًا أحد المساهمين الرئيسيين في MIRI.
وقال برادلي شيمين، المحلل الرئيسي في شركة أبحاث الذكاء الاصطناعي وتحليل البيانات Omdia، إن MIRI ستواجه صعوبة في إقناع المشرعين بسبب نقص الأبحاث الداعمة. وقال شيمين: "لقد أخذ السوق في الاعتبار هذه المشكلات وخلص إلى أن الوضع الحالي والمستقبلي القريب لنماذج GenAI القائمة على المحولات لا يمكن أن يفعل الكثير سوى إنشاء تمثيلات مفيدة للموضوعات المعقدة،" يحدد بشكل صحيح الفجوة المعرفية بين تلك المواضيع بناء وتنظيم الذكاء الاصطناعي.
أبرز النقاط:
- دعا معهد أبحاث ذكاء الآلة (MIRI)، وهو مجموعة بحثية غير ربحية، العالم إلى وقف الأبحاث النموذجية الأساسية أو "المتطورة"، خوفا من أن تهدد قضايا السلامة بقاء الإنسان.
- تريد MIRI من الحكومة أن تجبر الشركات التي تقوم بتطوير النماذج الأساسية على تثبيت "مفاتيح التوقف" التي يمكنها إيقاف أنظمة الذكاء الاصطناعي إذا طورت ميولًا ضارة أو "مخاطر x".
- قال برادلي شيمين، المحلل الرئيسي في شركة أبحاث الذكاء الاصطناعي وتحليل البيانات Omdia، إن MIRI ستواجه صعوبة في إقناع المشرعين بسبب نقص الأبحاث الداعمة.
أثارت دعوة MIRI مناقشات مكثفة حول سلامة وسرعة تطوير الذكاء الاصطناعي. وعلى الرغم من أن وجهات نظرها متطرفة، إلا أنها تسلط الضوء أيضًا على المخاوف بشأن المخاطر المحتملة للذكاء الاصطناعي وتستحق التفكير الجاد والدراسة من قبل الصناعة والحكومة. في المستقبل، ستكون كيفية الموازنة بين تطوير الذكاء الاصطناعي والمخاطر الأمنية قضية مهمة.