Google hat kürzlich eine Sicherheitswarnung veröffentlicht und darauf hingewiesen, dass passende Organisationen, die von mehreren Ländern unterstützt werden, mit seinen künstlichen Intelligenz -Assistenten Gemini zur Verbesserung der Cyberangriffsfunktionen einsetzen. Anstatt direkt mit Gemini Angriffe zu starten, verwenden diese Organisationen ihre effizienten Hilfsfunktionen wie Schwachstellenforschung, Zielaufklärung und Instrumententwicklung, um die Zeit für die Angriffsvorbereitung zu verkürzen und die Angriffeffizienz zu verbessern. Dies unterstreicht den doppelte Schwerteffekt, der durch generative KI-Technologie im Bereich der Netzwerksicherheit mitgebracht wird, was nicht nur die Produktivität steigern kann, sondern auch böswillig ausgenutzt werden kann.
Die Google Threat Intelligence Group (GIG) stellte fest, dass APT -Organisationen aus mehr als 20 Ländern wirklich Gemini versuchen, wobei Hacking im Iran und China am prominentesten hackt. Sie nutzen Gemini, um die Entwicklung von Tools und Skripten zu unterstützen, öffentliche Schwachstellen zu erforschen, technische Dokumente zu übersetzen, Zielorganisationen zu suchen und Wege zu finden, um die Entdeckung zu vermeiden. Iranische Hacker nutzen Gemini, um Aufklärungen durch Verteidigungsorganisationen und internationale Experten durchzuführen, bekannte Schwachstellen zu studieren und Phishing -Aktivitäten zu entwickeln. Nordkoreas eigentliche Organisationen nutzen auch aktiv Gemini, deckt mehrere Phasen des Angriffslebenszyklus ab und nutzen sie sogar, um die IT -Arbeiter Nordkoreas zu helfen, Identitäten zu fälschen, um Arbeit in westlichen Unternehmen zu bekommen. Russische Hacker verwenden Relativ wenig Gemini und konzentrieren sich hauptsächlich auf Skriptassistent und Übersetzung, was möglicherweise mit seinen Vorlieben oder Sicherheitsüberlegungen für native KI -Modelle zusammenhängt. Obwohl Hacker versuchten, öffentliche Jailbreaks zu verwenden, um mit Gemini umzugehen, war keiner dieser Versuche erfolgreich. Dies spiegelt auch die Schwere des aktuellen Missbrauchs generativer künstlicher Intelligenz -Tools und die neuen Sicherheitsherausforderungen wider, die durch die Ausweitung des KI -Marktes verursacht werden.

Beispielsweise verwenden iranische Hacker Gemini für eine Vielzahl von Aktivitäten, darunter die Aufklärung von Verteidigungsorganisationen und internationalen Experten, die Erforschung von bekannten Schwachstellen, die Entwicklung von Phishing -Aktivitäten und das Erstellen von Inhalten für Impact Operations. Darüber hinaus verwenden sie Zwillinge, um die Militärtechnologie zu übersetzen und zu interpretieren und Bereiche wie Drohnen und Raketenabwehrsysteme abzudecken.
In der Zwischenzeit konzentrieren sich die von China unterstützten Hacker auf die Aufklärung von US-Militär- und Regierungsbehörden und verwenden Gemini, um Verwundbarkeitsforschung, Skript- und Eskalation von Berechtigungen durchzuführen. Sie untersuchen auch, wie Sie über das Hashing von Passwort zugreifen und sogar einige Sicherheitstools umkehren können.
Nordkoreas eigentliche Organisationen nutzen auch aktiv Gemini, um mehrere Phasen des Angriffslebenszyklus zu decken, kostenlose Hosting -Dienste zu erforschen, die Zielaufklärung durchzuführen und Malware zu entwickeln. Sie nutzten auch Gemini, um dem IT Workers -Programm Nordkoreas beim Entwurf von Bewerbungen zu helfen, um Arbeitsplätze von westlichen Unternehmen in einer falschen Identität zu erhalten.
Im Gegensatz dazu verwenden russische Hacker Gemini weniger und konzentrieren sich hauptsächlich auf Skriptunterstützung und Übersetzung. Ihre Aktivitäten zeigen, dass künstliche Intelligenzmodelle vor Ort entwickelt wurden, oder vermeiden Sie westliche Tools aus operativen Sicherheitsgründen.
Es ist erwähnenswert, dass Hacker zwar versuchten, öffentliche Jailbreaks zu verwenden, um mit Gemini umzugehen, diese Versuche jedoch erfolglos waren. Dies spiegelt auch den Missbrauch generativer künstlicher Intelligenz -Tools auf dem aktuellen Markt wider. Da der KI -Markt allmählich erweitert wird, hat die Anzahl der Modelle ohne Schutzmaßnahmen ebenfalls zugenommen, was die Cybersicherheit neue Herausforderungen bringt.
Die Warnung von Google erinnert uns daran, dass die Technologie für künstliche Intelligenz zwar die Bequemlichkeit bringt, aber auch neue Risiken für die Netzwerksicherheit einbringt. Es ist notwendig, Schutzmaßnahmen für künstliche Intelligenzmodelle zu stärken und entsprechende Sicherheitsstrategien zu formulieren, um mit zunehmend komplexeren Cyber -Bedrohungen umzugehen.