Google afirma ter interrompido a tentativa de um grupo de hackers criminosos de transformar em arma uma falha zero-day criada com ajuda de um modelo de IA, o primeiro caso desse tipo registrado.
Google impede bypass de 2FA criado por IA
O Google Threat Intelligence Group, conhecido como GTIG, disclosed a intervenção na segunda-feira em seu mais recente relatório AI Threat Tracker.
Pesquisadores encontraram a falha dentro de um script em Python projetado para contornar a autenticação de dois fatores em uma popular ferramenta de administração de sistemas baseada na web e de código aberto.
Google se recusou a nomear o fornecedor afetado ou o agente de ameaça.
O GTIG disse que worked com o fornecedor para corrigir a falha e notificou as autoridades antes que qualquer exploração em massa pudesse começar.
A equipe destacou rastros reveladores de autoria por máquina no código, incluindo uma pontuação CVSS “alucinado”, docstrings em tom educacional e um formato Pythonic de livro‑texto consistente com dados de treinamento de grandes modelos de linguagem. O Google acrescentou que tem alta confiança de que um modelo de IA auxiliou na descoberta e na transformação da falha em arma, embora não acredite que seu próprio Gemini tenha sido envolvido.
Also Read: Tom Lee Calls Crypto Spring As Bitmine Stakes $11.1B In ETH
Especialistas alertam que era dos hacks com IA já chegou
John Hultquist, analista‑chefe do GTIG, chamou o caso de evidência tangível de uma ameaça há muito tempo anunciada.
“Ela já está aqui”, disse Hultquist a repórteres. A era da exploração de vulnerabilidades impulsionada por IA já começou, acrescentou ele, com casos visíveis apontando para muitos outros à solta.
Analistas de segurança dizem que o tipo de falha importa tanto quanto a ferramenta usada para encontrá‑la.
O bug era um erro de lógica semântica, uma suposição de confiança codificada em duro que fuzzers tradicionais e scanners estáticos detectam mal, mas que modelos de fronteira conseguem reason analisar.
O Google também documentou grupos ligados a Estados ampliando o uso de IA em toda a cadeia de ataque. O APT45 da Coreia do Norte vem enviando milhares de prompts repetitivos para analisar vulnerabilidades de forma recursiva, enquanto um agente ligado à China usou um jailbreak baseado em persona para levar o Gemini a pesquisar falhas de firmware.
Daybreak e Glasswing lideram a defesa
Na mesma semana em que as descobertas do Google se tornaram públicas, a OpenAI launched Daybreak, uma iniciativa de cibersegurança que combina GPT-5.5 e Codex Security para ajudar defensores a encontrar e corrigir falhas.
O Daybreak funciona com um sistema de acesso em camadas. Defensores verificados podem usar o GPT-5.5 com Trusted Access for Cyber, enquanto uma variante mais permissiva, GPT-5.5-Cyber, cobre red teaming e validação controlada.
Sam Altman disse que a OpenAI quer trabalhar com o máximo possível de empresas para proteger continuamente seus softwares.
O Daybreak entra em um mercado já moldado pelo Project Glasswing da Anthropic's Project Glasswing, which uses Claude Mythos Preview para inspecionar bases de código de parceiros em busca de falhas graves. Apple, Microsoft, Google, Amazon e JPMorgan Chase já aderiram. Os programas concorrentes refletem uma aposta mais ampla de que modelos de fronteira podem inclinar a balança a favor dos defensores, mesmo enquanto atacantes correm para fazer o mesmo.
Read Next: Sui Rallies 37% As Nasdaq Firm Locks Up 2.7% Of Supply





