O Google emitiu recentemente um aviso de segurança, apontando que as organizações adequadas suportadas por vários países estão usando seu assistente de inteligência artificial Gemini para aprimorar os recursos de ataque cibernético. Em vez de lançar diretamente ataques com Gêmeos, essas organizações usam suas funções auxiliares eficientes, como pesquisa de vulnerabilidade, reconhecimento -alvo e desenvolvimento de ferramentas para reduzir o tempo de preparação de ataques e melhorar a eficiência do ataque. Isso destaca o efeito da espada de dois gumes trazido pela tecnologia generativa de IA no campo da segurança da rede, que pode não apenas aumentar a produtividade, mas também ser explorada maliciosamente.
O Grupo de Inteligência de Ameaças do Google (GTIG) descobriu que organizações adequadas de mais de 20 países estão tentando ativamente Gêmeos, com hackers no Irã e na China os mais proeminentes. Eles usam Gêmeos para ajudar no desenvolvimento de ferramentas e scripts, pesquisando vulnerabilidades públicas, traduzindo documentos técnicos, explicando organizações -alvo e encontrando maneiras de evitar a detecção. Os hackers iranianos usam Gêmeos para realizar reconhecimento por organizações de defesa e especialistas internacionais, estudam vulnerabilidades conhecidas e desenvolver atividades de phishing; As organizações adequadas da Coréia do Norte também estão aproveitando ativamente Gêmeos, cobrindo vários estágios do ciclo de vida do ataque e até mesmo usando -o para ajudar os trabalhadores de TI da Coréia do Norte a planejar identidades fingirem para conseguir empregos nas empresas ocidentais. Os hackers russos usam Gêmeos relativamente pouco, concentrando -se principalmente na assistência e tradução do script, que podem estar relacionados a suas preferências ou considerações de segurança para os modelos nativos de IA. Embora os hackers tentassem usar jailbreaks públicos para lidar com Gêmeos, nenhuma dessas tentativas foi bem -sucedida. Isso também reflete a gravidade do abuso atual de ferramentas generativas de inteligência artificial e os novos desafios de segurança provocados pela expansão do mercado de IA.

Por exemplo, hackers iranianos usam Gemini para uma variedade de atividades, incluindo reconhecimento de organizações de defesa e especialistas internacionais, pesquisando vulnerabilidades conhecidas, desenvolvendo atividades de phishing e criando conteúdo para operações de impacto. Além disso, eles também usam Gêmeos para traduzir e interpretar a tecnologia militar, cobrindo áreas como drones e sistemas de defesa de mísseis.
Enquanto isso, os hackers chineses se concentram no reconhecimento das agências militares e governamentais dos EUA, usando Gêmeos para realizar pesquisas de vulnerabilidade, roteiros e escalada de permissões. Eles também exploram como acessar o Microsoft Exchange por meio do hash de senha e até engenharia reversa algumas ferramentas de segurança.
As organizações adequadas da Coréia do Norte também estão aproveitando ativamente Gêmeos para cobrir vários estágios do ciclo de vida do ataque, pesquisando serviços de hospedagem gratuitos, realizando reconhecimento de alvo e desenvolvendo malware. Eles também usaram Gemini para ajudar o programa de trabalhadores de TI da Coréia do Norte a redigir pedidos de emprego para obter empregos de empresas ocidentais em uma identidade falsa.
Por outro lado, os hackers russos usam menos gêmeos, concentrando -se principalmente na assistência e tradução do script. Suas atividades mostram preferência por modelos de inteligência artificial desenvolvidos localmente ou evitam ferramentas ocidentais por razões de segurança operacional.
Vale ressaltar que, embora os hackers tentassem usar jailbreaks públicos para lidar com Gêmeos, essas tentativas não tiveram êxito. Isso também reflete o abuso de ferramentas generativas de inteligência artificial no mercado atual. À medida que o mercado de IA se expande gradualmente, o número de modelos sem medidas de proteção também aumentou, trazendo novos desafios à segurança cibernética.
O aviso do Google nos lembra que, embora a tecnologia de inteligência artificial traga conveniência, ela também traz novos riscos para a segurança da rede. É necessário fortalecer as medidas de proteção para modelos de inteligência artificial e formular estratégias de segurança correspondentes para lidar com ameaças cibernéticas cada vez mais complexas.