Google afirma ter interrompido a tentativa de um grupo de hackers criminosos de transformar em arma uma falha de zero-day criada com ajuda de um modelo de IA, o primeiro caso desse tipo já registrado.
Google barra bypass de 2FA criado com IA
O Google Threat Intelligence Group, conhecido como GTIG, disse na segunda-feira que realizou a intervenção em seu mais recente relatório AI Threat Tracker.
Pesquisadores encontraram a falha em um script Python projetado para burlar a autenticação de dois fatores em uma popular ferramenta de administração de sistemas baseada na web e de código aberto.
O Google se recusou a revelar o fornecedor afetado ou o agente de ameaça.
O GTIG afirmou que trabalhou com o fornecedor para corrigir a falha e notificou as autoridades policiais antes que começasse qualquer exploração em massa.
A equipe identificou sinais claros de autoria por máquina no código, incluindo uma pontuação CVSS alucinada, docstrings de cunho educacional e um formato Python “de livro‑texto” consistente com dados de treinamento de grandes modelos de linguagem. O Google acrescentou que tem alta confiança de que um modelo de IA ajudou na descoberta e na transformação da falha em arma, embora não acredite que o próprio Gemini tenha estado envolvido.
Veja também: Tom Lee Calls Crypto Spring As Bitmine Stakes $11.1B In ETH
Especialistas alertam que a era dos hacks com IA já chegou
John Hultquist, analista‑chefe do GTIG, classificou o caso como evidência concreta de uma ameaça há muito anunciada.
“Ela já está aqui”, disse Hultquist a repórteres. A era da exploração de vulnerabilidades impulsionada por IA já começou, acrescentou ele, com casos visíveis apontando para muitos outros circulando por aí.
Analistas de segurança dizem que o tipo de falha importa tanto quanto a ferramenta usada para descobri‑la.
O bug era um erro de lógica semântica, uma suposição de confiança codificada que fuzzers tradicionais e scanners estáticos detectam mal, mas que modelos de fronteira conseguem raciocinar.
O Google também documentou grupos ligados a Estados ampliando o uso de IA em toda a cadeia de ataque. A APT45, da Coreia do Norte, vem enviando milhares de prompts repetitivos para analisar vulnerabilidades de forma recursiva, enquanto um ator ligado à China usou um jailbreak guiado por persona para levar o Gemini a pesquisar falhas de firmware.
Daybreak e Glasswing puxam ofensiva dos defensores
Na mesma semana em que as descobertas do Google se tornaram públicas, a OpenAI lançou o Daybreak, uma iniciativa de cibersegurança que combina o GPT-5.5 e o Codex Security para ajudar defensores a encontrar e corrigir falhas.
O Daybreak funciona em um sistema de acesso em camadas. Defensores verificados podem usar o GPT-5.5 com Trusted Access for Cyber, enquanto uma variante mais permissiva, o GPT-5.5-Cyber, cobre red teaming e validação controlada.
Sam Altman diz que a OpenAI quer trabalhar com o maior número possível de empresas para proteger continuamente seus softwares.
O Daybreak entra em um mercado já moldado pelo Project Glasswing, da Anthropic — que usa o Claude Mythos Preview para vasculhar bases de código de parceiros em busca de falhas graves. Apple, Microsoft, Google, Amazon e JPMorgan Chase já aderiram. Os programas concorrentes refletem uma aposta mais ampla de que modelos de fronteira podem inclinar a balança a favor dos defensores, mesmo enquanto atacantes correm para fazer o mesmo.
Leia também: Sui Rallies 37% As Nasdaq Firm Locks Up 2.7% Of Supply





