- Google afirma ter identificado e contido, pela primeira vez, um zero-day supostamente desenvolvido com IA, que poderia ter sido usado para burlar a autenticação de dois fatores.
- As evidências aparecem no script em Python do exploit, incluindo uma “pontuação CVSS halucinada” e formatação típica de dados de treinamento de grandes modelos de linguagem.
- O ataque explorava um flaw semântico de alto nível na lógica, permitindo supostamente explorar uma ferramenta de administração web de código aberto e baseada na web.
- O Google diz não acreditar que o modelo Gemini tenha sido utilizado, mas alerta que hackers passam a usar IA para encontrar e explorar vulnerabilidades.
- O relatório também aponta que atacantes utilizam “jailbreaking orientado a personas” e alimentam IA com repositórios de vulnerabilidades para refinar payloads antes da implantação.
Google afirma ter detectado e interrompido pela primeira vez um exploit zero-day desenvolvido com IA. O grupo Google Threat Intelligence Group aponta que atacantes planejaram um evento de exploração em massa que contornaria a autenticação de dois fatores de uma ferramenta de administração web de código aberto e baseada na web.
A evidência aparece no código do exploit, em uma script Python, com indícios de uso de IA. Entre eles, uma suposta “pontuação CVSS alucinada” e formatação considerada típica de modelos de linguagem treinados, segundo o relatório do GTIG.
O vetor de ataque envolve uma falha semântica de alto nível, em que o desenvolvedor fixou uma suposição de confiança. Autenticação em dois fatores era o alvo da exploração, segundo as análises iniciais da equipe de segurança.
O que aconteceu
Google diz ter percebido sinais de uso de IA na criação do exploit e ter agido para interromper o ataque. O relatório também afirma que hackers já recorrem a IA para identificar vulnerabilidades e explorá-las.
A empresa destaca ainda que não há evidência de uso do Gemini no ataque. Apesar da interrupção, o Google ressalta que agentes maliciosos estão cada vez mais recorrentes a IA para aprimorar técnicas de invasão.
Além disso, o estudo de GTIG aponta que adversários visam componentes integrados de IA, como habilidades autônomas e conectores de dados de terceiros, para ampliar o alcance de ataques.
Entre na conversa da comunidade