2024年1月1日、世界に衝撃を与えた事件がラスベガスで発生しました。男性がトランプのホテルの外でテスラのサイバートックを爆発させました。これは、深刻な物的損害を引き起こしただけでなく、人工知能技術の乱用に関する深い国民の懸念を提起しました。事件の特別な特徴は、爆発の前に、男性が実際に人工知能チャットツールChatGPTを使用して詳細な計画を使用したことです。
その後の調査で、ラスベガス警察署は、関係する男性であるマシュー・レヴィエルスバーグが、事件の前に17以上の質問を行うためにChatGptを使用したことを明らかにしました。これらの問題は、爆発物を入手することから関連する法的問題に至るまでの特定の詳細、さらには銃器を使用して爆発物を爆発させる方法をカバーしています。 LevielsbergはChatGptとシンプルな英語でやり取りし、アリゾナ州での花火が合法か、デンバーの銃を購入する場所、爆発物を効果的に爆発させる銃の種類などの質問を議論しました。
保安官のドリー・コラムは記者会見で、チャットグプの答えがレビエルズベルクの爆撃計画で重要な役割を果たしたことを確認した。 ChatGPTは、銃器の速度に関する詳細な情報を提供し、レビエルスバーグが計画をスムーズに実装できるようにします。最終的な爆発は彼が予想ほど強くなく、爆発物の一部は予想どおりに点火しませんでしたが、事件は依然として法執行機関に衝撃を与えました。
「私たちはすでにある時点で私たちの生活を変えることを知っていましたが、誰かがChatGptを使用してそのような危険な計画を構築するのを見たのはこれが初めてです」と彼は言った爆発物や銃器に関連するこれらのクエリをマークできる監督メカニズム。このインシデントは、セキュリティ監督におけるAIテクノロジーの抜け穴を強調しています。
ラスベガス警察はChatGPTからの特定の質問を明らかにしていませんが、記者会見で提示された質問は比較的単純であり、従来の「脱獄」用語を使用していません。この使用法はOpenaiの使用ポリシーと条件に明らかに違反していることは注目に値しますが、Levielsbergがツールを使用したときにOpenaiのセキュリティ対策が役割を果たしたかどうかは明らかではありません。
これに応じて、Openaiは、ユーザーが自分のツールを「責任を持って」使用できるようにすることに取り組んでおり、人工知能ツールに有害な指示を拒否することを目指していると回答しました。 「この事件では、CHATGPTはインターネットで公開された情報にのみ応答し、有害または違法行為の警告も提供しています。私たちは、AIをより賢く責任あるものにするために取り組んでいます」とOpenaiは言いました彼らの調査。
この事件は、人工知能技術の乱用に関する国民の懸念を引き起こしただけでなく、法執行機関と技術企業が既存のセキュリティ対策を再訪するよう促しました。人工知能技術の急速な発展に伴い、違法行為に使用されないようにしながら技術の進歩を確保する方法が緊急の問題になりました。

画像ソースノート:画像はAIによって生成され、画像認定サービスプロバイダーMidjourney
キーポイント:
この事件は、ラスベガスのトランプホテルの外でテスラサイバートックを爆発させた2024年1月1日に発生しました。
男性は、爆発前の爆発と銃の獲得を含む爆発の前に計画するために1時間ChatGptを使用しました。
警察は、個人がChatGPTを使用して米国でこのような危険な活動を実施したのはこれが初めてであり、効果的な政府の規制メカニズムが見つからなかったと述べた。