Национальный институт стандартов и технологий (NIST) недавно объявил о крупном плане увольнения, который, как ожидается, сократит до 500 сотрудников. Это решение не только оказало глубокое влияние на самих NIST, но и представляло серьезную угрозу для недавно созданного Американского института безопасности искусственного интеллекта (AISI). По словам Axios, увольнения будут в основном целевыми работниками испытателей, которые часто являются новыми сотрудниками, которые дежутся в течение одного -двух лет, в то время как Bloomberg сообщил, что некоторые сотрудники получили устные увольнения.

Будущее Айси было полно неопределенности, прежде чем появились новости о его увольнениях. Институт был основан в прошлом году для изучения рисков в развитии искусственного интеллекта и сформулировал соответствующие стандарты безопасности. Он был создан на основе исполнительного распоряжения тогдашнего президента Джо Байдена на безопасность искусственного интеллекта. Однако, когда Дональд Трамп вступил в должность, исполнительный приказ был отозван в первый день, а директор AISI также уехал в начале февраля, что сделало перспективы института еще более неясными.
Увольнения вызвали опасения и критику со стороны множества агентств по безопасности ИИ и политики. «Если эти увольнения верны, это серьезно повлияет на способность правительства исследовать и реагировать на ключевые проблемы безопасности искусственного интеллекта, и этот опыт является более важным, чем когда-либо»,-сказал Джейсон Грин Лоу, исполнительный директор Центра политики ИИ. Его замечания отражают общий консенсус в отрасли о срочности исследований безопасности ИИ.
AISI был основан для обеспечения безопасности и соответствия технологии искусственного интеллекта, но текущие планы увольнения могут поставить его на еще большие проблемы. С быстрой разработкой технологии ИИ, соответствующие стандарты безопасности и исследования становятся все более неотложными. AISI широко ожидается с момента его создания и надеется сыграть важную роль в этой области. Однако по мере сокращения человеческих ресурсов их исследовательские возможности будут значительно затронуты, что, несомненно, окажет неблагоприятное влияние на разработку области безопасности ИИ.
В рамках технологической отрасли дискуссии по безопасности ИИ растут, и все стороны призывают к укреплению государственного регулирования и поддержки. Хотя цель AISI - построить безопасную и ответственную среду ИИ, эта серия увольнений оставила внешний мир глубоко обеспокоенным своим будущим воздействием. Быстрое развитие технологии ИИ принесло огромные возможности, а также сопровождается потенциальными рисками. Как найти баланс между технологическим прогрессом и гарантией безопасности стал неотложной проблемой, которая будет решена в настоящее время.
Ключевые моменты: AISI может уволить до 500 сотрудников, серьезно влияя на свои исследовательские возможности; AISI был создан в прошлом году для изучения рисков ИИ и сформулировать стандарты безопасности; План увольнения вызвал широкую критику, и эксперты отрасли считают, что в настоящее время исследования в области безопасности искусственного интеллекта имеют решающее значение.