Am 1. Januar 2024 ereignete sich in Las Vegas ein Vorfall, der die Welt schockierte. Ein Mann detonierte einen Tesla Cybertruck vor Trumps Hotel, ein Gesetz, das nicht nur schwerwiegende Sachschäden verursachte, sondern auch tiefe öffentliche Bedenken hinsichtlich des Missbrauchs der Technologie für künstliche Intelligenz aussprach. Die Besonderheit des Vorfalls ist, dass der Mann vor der Explosion das Chat -Tool für künstliche Intelligenz Chatgpt für eine detaillierte Planung verwendete.
In einer späteren Untersuchung gab die Polizeibehörde von Las Vegas bekannt, dass der beteiligte Mann, Matthew Levielsberg, ChatGPT in den Tagen vor dem Vorfall mehr als 17 Fragen durchführte. Diese Probleme behandeln spezifische Details, wenn Sie explosive Materialien zu verwandten Rechtsfragen erhalten, und sogar, wie Schusswaffen zum Detonieren von Sprengstoff verwendet werden können. Levielsberg interagierte mit Chatgpt in einfachem Englisch und diskutierte Fragen, einschließlich der Frage, ob Feuerwerkskörper in Arizona legal sind, wo Waffen in Denver gekauft werden können und welche Art von Waffen effektiv Sprengstoff detonieren.
Der stellvertretende Sheriff Dory Colum bestätigte auf einer Pressekonferenz, dass die Antwort von Chatgpt eine Schlüsselrolle in Levielsbergs Bombenanschlagsplan spielte. ChatGPT bietet detaillierte Informationen zur Geschwindigkeit der Schusswaffen, sodass Levielsberg den Plan reibungslos implementieren kann. Obwohl die endgültige Explosion nicht so stark war, wie er es erwartete und einige der Sprengstoffe nicht wie erwartet zündeten, schockierte der Vorfall die Strafverfolgungsbehörden immer noch.
"Wir wussten bereits, dass KI unser Leben irgendwann verändern wird, aber dies ist das erste Mal, dass jemand Chatgpt einen so gefährlichen Plan nutzt", sagte Kevin McGill, Polizeichef von Las Vegas. " Überwachungsmechanismus, der diese Abfragen im Zusammenhang mit Sprengstoff und Schusswaffen markieren kann. Dieser Vorfall unterstreicht die Lücken in der KI -Technologie in der Sicherheitsüberwachung.
Obwohl die Polizei von Las Vegas die spezifischen Fragen aus ChatGPT nicht offengelegt hat, sind die auf der Pressekonferenz vorgestellten Fragen relativ einfach und verwenden den traditionellen "Jailbreak" -Schem nicht. Es ist erwähnenswert, dass diese Verwendung eindeutig gegen OpenAs Nutzungsrichtlinien und -bedingungen verstößt, aber es ist nicht klar, ob die Sicherheitsmaßnahmen von OpenAI eine Rolle spielten, als Levielsberg das Tool verwendete.
Als Reaktion darauf antwortete OpenAI, dass es sich dafür einsetzt, dass Benutzer ihre Tools "verantwortungsbewusst" verwenden können, und beabsichtigt, künstliche Intelligenz -Tools schädliche Anweisungen abzulehnen. "In diesem Vorfall reagiert Chatgpt nur auf Informationen, die im Internet veröffentlicht wurden, und enthält auch Warnungen für schädliche oder illegale Aktivitäten. Wir haben daran gearbeitet, KI intelligenter und verantwortungsbewusster zu machen", sagte Openai. ihre Ermittlungen.
Der Vorfall löste nicht nur öffentliche Bedenken hinsichtlich des Missbrauchs der Technologie für künstliche Intelligenz aus, sondern veranlasste auch Strafverfolgungs- und Technologieunternehmen, bestehende Sicherheitsmaßnahmen zu überdenken. Mit der raschen Entwicklung der Technologie für künstliche Intelligenz ist die Gewährleistung des technologischen Fortschritts und der Verhinderung, dass er für illegale Aktivitäten eingesetzt wird, zu einem dringenden Problem.

Bildquelle Notizen: Das Bild wird von KI erzeugt, und der im Bild autorisierte Dienstanbieter Midjourney
Schlüsselpunkte:
Der Vorfall ereignete sich am 1. Januar 2024, als ein Mann vor einem Trump -Hotel in Las Vegas einen Tesla Cybertruck detonierte.
Der Mann benutzte Chatgpt eine Stunde lang, um vor der Explosion zu planen, und beinhaltete den Erwerb von Sprengstoff und Waffen.
Die Polizei sagte, dies sei das erste Mal, dass eine Person Chatgpt verwendet hat, um eine so gefährliche Aktivität in den Vereinigten Staaten durchzuführen, und es wurde kein wirksamer Regulierungsmechanismus der Regierung festgestellt.