أعلن المعهد الوطني للمعايير والتكنولوجيا (NIST) مؤخرًا عن خطة تسريح العمال الرئيسية التي من المتوقع أن تقطع ما يصل إلى 500 موظف. لم يكن لهذا القرار تأثير عميق على NIST نفسه فحسب ، بل كان يشكل أيضًا تهديدًا خطيرًا للمعهد الأمريكي المنشأ حديثًا لأمن الذكاء الاصطناعي (AISI). وفقًا لـ AXIOS ، فإن تسريح العمال سوف يستهدفون بشكل أساسي عمال الاختبار ، والذين غالبًا ما يكونون موظفين جدد كانوا في الخدمة لمدة عام إلى عامين ، بينما كشف بلومبرج أن بعض الموظفين تلقوا إشعارات شفهية بأن يتم إطلاقها.

كان مستقبل أيسي مليئًا بعدم اليقين قبل اندلاع أخبار تسريحه. تأسس المعهد العام الماضي لدراسة المخاطر في تنمية الذكاء الاصطناعي وصياغة معايير الأمن المقابلة. تم تأسيسها استنادًا إلى أمر الرئيس التنفيذي لـ "جو بايدن" في آنذاك بشأن أمان الذكاء الاصطناعي. ومع ذلك ، مع تولي دونالد ترامب منصبه ، تم سحب الأمر التنفيذي في اليوم الأول ، وغادر مدير AISI أيضًا في أوائل فبراير ، مما جعل آفاق المعهد أكثر وضوحًا.
أثارت عمليات تسريح العمال مخاوف وانتقادات من وكالات أمن وسياسات منظمة العفو الدولية المتعددة. وقال جيسون جرين لوي ، المدير التنفيذي لسياسة الذكاء الاصطناعي: "إذا كانت هذه التسريحات صحيحة ، فسيؤثر ذلك بشكل خطير على قدرة الحكومة على البحث والرد على قضايا أمن الذكاء الاصطناعى الرئيسية ، وهذه الخبرة أكثر أهمية من أي وقت مضى". تعكس تصريحاته الإجماع العام في الصناعة على إلحاح أبحاث أمن الذكاء الاصطناعي.
تأسست AISI لضمان سلامة وامتثال تقنية الذكاء الاصطناعي ، ولكن خطط تسريح العمال الحالية يمكن أن تضعها على تحديات أكبر. مع التطور السريع لتكنولوجيا الذكاء الاصطناعى ، أصبحت معايير السلامة والأبحاث ذات الصلة ملحة بشكل متزايد. كان من المتوقع على نطاق واسع AISI منذ تأسيسه ويأمل أن يلعب دورًا مهمًا في هذا المجال. ومع ذلك ، مع انخفاض الموارد البشرية ، ستتأثر قدراتها البحثية بشكل كبير ، والتي سيكون لها بلا شك تأثير سلبي على تطوير مجال أمان الذكاء الاصطناعي.
ضمن صناعة التكنولوجيا ، تتزايد المناقشات حول أمن الذكاء الاصطناعي ، وتدعو جميع الأطراف إلى تعزيز التنظيم والدعم الحكوميين. في حين أن هدف AISI هو بناء بيئة آمنة ومسؤولة من الذكاء الاصطناعي ، فإن هذه السلسلة من تسريح العمال قد تركت العالم الخارجي قلقًا للغاية بشأن تأثيره المستقبلي. لقد جلب التطور السريع لتكنولوجيا الذكاء الاصطناعي فرصًا ضخمة ، ويرافقه أيضًا مخاطر محتملة. أصبحت كيفية العثور على توازن بين التقدم التكنولوجي وضمان الأمن مشكلة ملحة يجب حلها في الوقت الحاضر.
النقاط الرئيسية: قد تصل AISI إلى ما يصل إلى 500 موظف ، مما يؤثر بشكل خطير على قدراته البحثية ؛ تم إنشاء AISI العام الماضي لدراسة مخاطر الذكاء الاصطناعي وصياغة معايير السلامة ؛ أثارت خطة تسريح العمال انتقادات واسعة النطاق ، ويعتقد خبراء الصناعة أن أبحاث أمن الذكاء الاصطناعي أمر بالغ الأهمية في هذا الوقت.