Научно-исследовательский институт машинного интеллекта (MIRI) опубликовал заявление, призывающее мир прекратить разработку систем искусственного интеллекта, которые умнее людей, полагая, что их потенциальные риски могут привести к гибели человечества. Этот призыв был поддержан некоторыми лидерами технологической отрасли, но он также вызвал споры. MIRI подчеркнула, что нынешняя скорость развития ИИ слишком высока, и законодательному надзору за ней трудно угнаться. Поэтому для борьбы с потенциальным злонамеренным поведением ИИ необходимы более активные меры, такие как обязательная установка «выключателей». непредсказуемые риски. В институте считают, что разработку более совершенных систем искусственного интеллекта можно продолжить только в том случае, если будет обеспечена безопасность и управляемость искусственного интеллекта.
Некоммерческая исследовательская группа Machine Intelligence Research Institute (MIRI) призвала мир прекратить фундаментальные или «передовые» исследования моделей, опасаясь, что их проблемы безопасности могут поставить под угрозу выживание человечества. Базовая модель представляет собой систему искусственного интеллекта, которую можно применять в нескольких режимах. MIRI считает, что лежащая в основе модель будет умнее людей и сможет «уничтожить человечество».

В области технологий некоторые ведущие деятели, в том числе Илон Маск и Стив Возняк, призвали к мораторию на разработку базовых моделей, более мощных, чем GPT-4 от OpenAI. Но MIRI хочет пойти еще дальше, представив недавно обнародованную коммуникационную стратегию, призывающую к полному прекращению попыток создания любых систем, которые умнее человека.
Группа заявила: «Политики решают проблемы в первую очередь посредством компромисса: они уступают где-то, чтобы получить что-то в другом. Мы опасаемся, что большая часть законодательства, необходимого для сохранения человеческого выживания, пройдет через обычный политический процесс и превратится в неэффективный компромисс. Между тем, время идет, а лаборатории искусственного интеллекта продолжают инвестировать в разработку и обучение более надежных систем».
MIRI хочет, чтобы правительство заставило компании, разрабатывающие базовые модели, установить «аварийные выключатели», которые могут отключать системы искусственного интеллекта, если у них развиваются вредоносные тенденции или тенденции «x-риска».
Некоммерческая организация заявила, что по-прежнему привержена идее о том, что интеллектуальные системы умнее людей, но хочет создавать их «до тех пор, пока мы не узнаем, как безопасно создавать этот тип ИИ».
MIRI была основана в 2000 году Элиэзером Юдковски, среди сторонников которого были Питер Тиль и Виталик Бутерин, один из создателей криптовалюты Ethereum. Институт будущего жизни также вносит один из основных вкладов в MIRI.
Брэдли Шиммин, главный аналитик исследовательской компании Omdia в области искусственного интеллекта и анализа данных, сказал, что MIRI будет трудно убедить законодателей из-за отсутствия подтверждающих исследований. «Рынок рассмотрел эти проблемы и пришел к выводу, что нынешний и ближайший уровень развития моделей GenAI на основе преобразователей мало что может сделать, кроме создания полезных представлений сложных тем», — сказал Шиммин, правильно идентифицируя разрыв в знаниях между ними. создание и регулирование искусственного интеллекта.
Основные моменты:
- Некоммерческая исследовательская группа Machine Intelligence Research Institute (MIRI) призвала мир прекратить фундаментальные или «передовые» исследования моделей, опасаясь, что их проблемы безопасности могут поставить под угрозу выживание человечества.
- MIRI хочет, чтобы правительство заставило компании, разрабатывающие базовые модели, установить «аварийные выключатели», которые могут отключать системы ИИ, если у них развиваются вредоносные тенденции или тенденции «x-риска».
- Брэдли Шиммин, главный аналитик исследовательской компании Omdia в области искусственного интеллекта и анализа данных, сказал, что MIRI будет трудно убедить законодателей из-за отсутствия подтверждающих исследований.
Призыв MIRI вызвал широкие дискуссии о безопасности и скорости развития ИИ. Хотя его взгляды являются крайними, он также подчеркивает обеспокоенность по поводу потенциальных рисков искусственного интеллекта и заслуживает серьезного размышления и рассмотрения со стороны отрасли и правительства. В будущем важным вопросом станет то, как сбалансировать развитие искусственного интеллекта и риски безопасности.