أعلنت شركة Anthropic Corporation مؤخرًا عن خطة طموحة لتمويل تطوير معايير جديدة لتقييم أداء وتأثير نماذج الذكاء الاصطناعي، مما يمثل خطوة مهمة في مجال تقييم أمن الذكاء الاصطناعي. وسيوفر البرنامج التمويل لمؤسسات خارجية لتطوير أدوات يمكنها قياس القدرات المتقدمة لنماذج الذكاء الاصطناعي بشكل فعال، وخاصة قدرات نماذج الذكاء الاصطناعي التوليدية. لن تؤدي هذه الخطوة إلى تحسين المستوى العام لمجال سلامة الذكاء الاصطناعي فحسب، بل ستوفر أيضًا أدوات تقييم قيمة للنظام البيئي بأكمله وحل النقص الحالي في أدوات التقييم عالية الجودة المتعلقة بالسلامة. إن مبادرة أنثروبيك جديرة بالملاحظة، ولكنها أثارت أيضاً بعض المناقشات حول عدالتها وتركيزها.
أعلنت شركة أنثروبيك يوم الاثنين عن إطلاق مبادرة جديدة لتمويل تطوير معايير جديدة يمكنها تقييم أداء وتأثير نماذج الذكاء الاصطناعي، بما في ذلك النماذج التوليدية مثل نموذج كلود الخاص بها.
ووفقًا للمعلومات المنشورة على مدونة Anthropic الرسمية، ستقدم الشركة الدعم المالي لمؤسسات خارجية لتطوير أدوات "تقيس بشكل فعال القدرات المتقدمة لنماذج الذكاء الاصطناعي". يمكن للمنظمات المهتمة تقديم طلب وسيتم إجراء التقييم على أساس دوري.

وقالت أنثروبيك إن الاستثمار يهدف إلى تحسين المجال العام لأمن الذكاء الاصطناعي وتوفير أدوات قيمة للنظام البيئي بأكمله. تعتقد الشركة أن تطوير تقييمات عالية الجودة تتعلق بالسلامة لا يزال يمثل تحديًا وأن الطلب يتجاوز العرض.
ومع التركيز على سلامة الذكاء الاصطناعي والتأثير الاجتماعي، يخطط البرنامج لإنشاء معايير صعبة من خلال أدوات وبنية تحتية ومنهجيات جديدة. طلبت Anthropic على وجه التحديد إجراء اختبارات لتقييم قدرات النموذج في مجالات مثل الهجمات الإلكترونية أو تعديلات الأسلحة أو التلاعب أو الخداع. وبالإضافة إلى ذلك، تعمل الشركة على تطوير "نظام إنذار مبكر" لتحديد وتقييم مخاطر الذكاء الاصطناعي المتعلقة بالأمن القومي والدفاع.
وقالت أنثروبيك أيضًا إن البرنامج الجديد سيدعم البحث الذي يستكشف إمكانات الذكاء الاصطناعي لمساعدة البحث العلمي والتواصل بلغات متعددة وتخفيف التحيز والرقابة الذاتية. ولتحقيق هذه الأهداف، تتصور الشركة بناء منصات جديدة تسمح للخبراء بتطوير التقييمات وإجراء تجارب واسعة النطاق.
وبينما تمت الإشادة بخطوة أنثروبيك، إلا أنها أثارت أيضًا بعض التساؤلات. ويعتقد البعض أنه مع مراعاة المصالح التجارية للشركة، فإن عدالة المشاريع الممولة لها قد تتأثر. بالإضافة إلى ذلك، أعرب بعض الخبراء عن شكوكهم بشأن بعض مخاطر الذكاء الاصطناعي "الكارثية" و"الخادعة" التي ذكرتها أنثروبيك، بحجة أن هذا يمكن أن يصرف الانتباه عن القضايا الأكثر إلحاحًا المتعلقة بتنظيم الذكاء الاصطناعي الحالي.
وتأمل أنثروبيك أن تساعد هذه المبادرة في جعل التقييمات الشاملة للذكاء الاصطناعي معيارًا صناعيًا. ومع ذلك، يبقى أن نرى ما إذا كانت مجموعات تطوير معايير الذكاء الاصطناعي المستقلة ستكون على استعداد للعمل مع بائعي الذكاء الاصطناعي التجاريين.
سيستغرق الأمر بعض الوقت لاختبار ما إذا كانت خطوة الأنثروبيك قادرة على تعزيز تطوير مجال تقييم سلامة الذكاء الاصطناعي بنجاح وتعزيز إنشاء معايير تقييم أكثر عدالة وشمولاً. ولا يزال التأثير طويل المدى والقيود المحتملة لخططها يتطلب اهتمامًا وتقييمًا مستمرين.