1 января 2024 года инцидент, который шокировал мир, произошел в Лас -Вегасе. Человек взорвал кибертрук Тесла возле отеля Трампа, что не только нанесло серьезный ущерб имуществом, но также вызвал глубокие общественные опасения по поводу злоупотребления технологиями искусственного интеллекта. Особенностью инцидента является то, что до взрыва человек фактически использовал инструмент чата искусственного интеллекта Chatgpt для подробного планирования.
В последующем расследовании полицейское управление Лас -Вегаса сообщило, что вовлеченный человек, Мэтью Левиэльсберг, использовал CHATGPT для проведения более 17 вопросов за несколько дней до инцидента. Эти вопросы охватывают конкретные детали от получения взрывчатых материалов до соответствующих юридических вопросов и даже того, как использовать огнестрельное оружие для взорвания взрывчатых веществ. Левиэльсберг взаимодействовал с CHATGPT на простом английском языке, обсуждая вопросы, включая фейерверки законными в Аризоне, где покупать оружие в Денвере, и какие оружия для эффективного детонации взрывчатых веществ.
Помощник шерифа Дори Колум подтвердил на пресс -конференции, что ответ Chatgpt сыграл ключевую роль в плане бомбардировки Левиэльсберга. CHATGPT предоставляет подробную информацию о скорости огнестрельного оружия, позволяя Левиэльсбергу плавно реализовать план. Хотя окончательный взрыв был не таким сильным, как он ожидал, и некоторые взрывчатые вещества не зажигали, как и ожидалось, инцидент все еще шокировал правоохранительные органы.
«Мы уже знали, что ИИ изменит нашу жизнь в какой -то момент, но я впервые видел, как кто -то использует Чатгп для создания такого опасного плана», - сказал начальник полиции Лас -Вегаса Кевин Макгилл. Механизм надзора, который может отметить эти запросы, связанные с взрывчатыми веществами и огнестрельным оружием. Этот инцидент подчеркивает лазейки в технологии искусственного интеллекта в области безопасности.
Хотя полиция Лас -Вегаса не раскрыла конкретные вопросы из CHATGPT, вопросы, представленные на пресс -конференции, относительно просты и не используют традиционный термин «джейлбрейк». Стоит отметить, что это использование явно нарушает политику и термины Openai, но неясно, сыграли ли меры безопасности Openai роль, когда Левильсберг использовал этот инструмент.
В ответ Openai ответил, что он стремится позволить пользователям использовать свои инструменты «ответственно» и стремится сделать инструменты искусственного интеллекта отвергать вредные инструкции. «В этом инциденте CHATGPT отвечает только на информацию, которая была опубликована в Интернете, а также предоставляет предупреждения о вредных или незаконных действиях. Мы работаем над тем, чтобы сделать AI Smarter и более ответственность», - сказал Openai. их расследования.
Инцидент не только вызвал общественные опасения по поводу злоупотребления технологиями искусственного интеллекта, но и побудил компании правоохранительных органов и технологий пересмотреть существующие меры безопасности. Благодаря быстрому развитию технологий искусственного интеллекта, как обеспечить технологический прогресс, предотвращая их использование для незаконной деятельности, стало неотложной проблемой.

Примечания источника изображения: изображение генерируется ИИ, а изображение авторизованное поставщик услуг Midjourney
Ключевые моменты:
Инцидент произошел 1 января 2024 года, когда мужчина взорвал кибертразку Теслы возле отеля Трампа в Лас -Вегасе.
Человек использовал чат в течение часа для планирования до взрыва, включая приобретение взрывчатых веществ и оружия.
Полиция заявила, что это первый раз, когда человек использовал CHATGPT для проведения такой опасной деятельности в Соединенных Штатах, и не было обнаружено никакого эффективного правительственного регулирующего механизма.