Google emitió recientemente una advertencia de seguridad, señalando que las organizaciones APT respaldadas por varios países están utilizando su asistente de inteligencia artificial Gemini para mejorar las capacidades cibernéticas. En lugar de lanzar directamente los ataques con Gemini, estas organizaciones usan sus funciones auxiliares eficientes, como la investigación de vulnerabilidad, el reconocimiento objetivo y el desarrollo de herramientas para reducir el tiempo de preparación de ataques y mejorar la eficiencia del ataque. Esto resalta el efecto de espada de doble filo aportado por la tecnología de IA generativa en el campo de la seguridad de la red, que no solo puede aumentar la productividad sino que también se explota maliciosamente.
Google Threat Intelligence Group (GTIG) descubrió que las organizaciones APT de más de 20 países están probando activamente Géminis, con piratería en Irán y China las más prominentes. Utilizan Gemini para ayudar en el desarrollo de herramientas y guiones, investigando vulnerabilidades públicas, traducir documentos técnicos, explorar organizaciones objetivo y encontrar formas de evitar la detección. Los piratas informáticos iraníes usan Géminis para llevar a cabo el reconocimiento de organizaciones de defensa y expertos internacionales, estudian vulnerabilidades conocidas y desarrollan actividades de phishing; Las organizaciones APT de Corea del Norte también están aprovechando activamente a Gemini, cubriendo múltiples etapas del ciclo de vida del ataque e incluso usándolo para ayudar a los trabajadores de TI de Corea del Norte a planear identidades para obtener trabajos en las empresas occidentales. Los piratas informáticos rusos usan Gemini relativamente poco, centrándose principalmente en la asistencia y la traducción del script, lo que puede estar relacionado con sus preferencias o consideraciones de seguridad para los modelos de IA nativos. Aunque los piratas informáticos intentaron usar jailbreaks públicos para tratar con Gemini, ninguno de estos intentos tuvo éxito. Esto también refleja la gravedad del abuso actual de herramientas generativas de inteligencia artificial y los nuevos desafíos de seguridad provocados por la expansión del mercado de IA.

Por ejemplo, los piratas informáticos iraníes usan Gemini para una variedad de actividades, incluido el reconocimiento de organizaciones de defensa y expertos internacionales, investigando vulnerabilidades conocidas, desarrollar actividades de phishing y crear contenido para operaciones de impacto. Además, también usan Gemini para traducir e interpretar la tecnología militar, cubriendo áreas como drones y sistemas de defensa antimisiles.
Mientras tanto, los piratas informáticos respaldados por los chinos se centran en el reconocimiento de las agencias militares y gubernamentales de EE. UU., Usando Gemini para realizar investigaciones de vulnerabilidad, secuencias de comandos y escaladas de permisos. También exploran cómo acceder a Microsoft Exchange a través del hash de contraseña e incluso ingeniería inversa de algunas herramientas de seguridad.
Las organizaciones APT de Corea del Norte también están aprovechando activamente a Gemini para cubrir múltiples etapas del ciclo de vida del ataque, investigando servicios de alojamiento gratuitos, realizando el reconocimiento objetivo y el desarrollo de malware. También utilizaron Gemini para ayudar a los trabajadores de TI de Corea del Norte a redactar solicitudes de empleo para obtener empleos de empresas occidentales en una identidad falsa.
Por el contrario, los piratas informáticos rusos usan menos Géminis, centrándose principalmente en la asistencia y la traducción del guión. Sus actividades muestran preferencia por los modelos de inteligencia artificial desarrollados localmente o evitan las herramientas occidentales por razones de seguridad operativa.
Vale la pena mencionar que aunque los piratas informáticos intentaron usar jailbreaks públicos para tratar con Géminis, estos intentos no tuvieron éxito. Esto también refleja el abuso de herramientas generativas de inteligencia artificial en el mercado actual. A medida que el mercado de IA se expande gradualmente, el número de modelos que carecen de medidas de protección también ha aumentado, lo que trae nuevos desafíos a la ciberseguridad.
La advertencia de Google nos recuerda que, si bien la tecnología de inteligencia artificial trae conveniencia, también trae nuevos riesgos a la seguridad de la red. Es necesario fortalecer las medidas de protección para los modelos de inteligencia artificial y formular las estrategias de seguridad correspondientes para lidiar con amenazas cibernéticas cada vez más complejas.