Google afirma ter interrompido a tentativa de um grupo de hackers criminosos de transformar em arma uma falha zero-day criada com ajuda de um modelo de IA, o primeiro caso desse tipo registrado.
Google barra bypass de 2FA criado por IA
O Google Threat Intelligence Group, conhecido como GTIG, disclosed a intervenção na segunda‑feira em seu mais recente relatório AI Threat Tracker.
Pesquisadores encontraram a falha em um script Python projetado para contornar a autenticação de dois fatores em uma popular ferramenta de administração de sistemas baseada na web e de código aberto.
O Google se recusou a nomear o fornecedor afetado ou o agente de ameaça.
O GTIG afirmou que worked com o fornecedor para corrigir a falha e notificou as autoridades antes que qualquer exploração em massa pudesse começar.
A equipe identificou indícios claros de autoria por máquina no código, incluindo uma pontuação CVSS alucinada, docstrings educativas e um formato “Pythonic” de livro‑texto consistente com dados de treinamento de grandes modelos de linguagem. O Google acrescentou que tem alta confiança de que um modelo de IA ajudou na descoberta e na transformação da falha em arma, embora não acredite que seu próprio Gemini tenha estado envolvido.
Also Read: Tom Lee Calls Crypto Spring As Bitmine Stakes $11.1B In ETH
Especialistas alertam: era do hacking com IA já chegou
John Hultquist, analista‑chefe do GTIG, classificou o caso como evidência tangível de uma ameaça há muito tempo alertada.
“Ela já está aqui”, disse Hultquist a repórteres. A era da exploração de vulnerabilidades impulsionada por IA já começou, acrescentou ele, com casos visíveis indicando muitos outros à solta.
Analistas de segurança dizem que o tipo de falha importa tanto quanto a ferramenta usada para encontrá‑la.
O bug era um erro de lógica semântica, uma suposição de confiança codificada que fuzzers tradicionais e scanners estáticos têm dificuldade em detectar, mas que modelos de fronteira conseguem reason analisar.
O Google também documentou grupos ligados a Estados ampliando o uso de IA ao longo de toda a cadeia de ataque. A APT45 da Coreia do Norte tem enviado milhares de prompts repetitivos para analisar vulnerabilidades de forma recursiva, enquanto um agente ligado à China usou um jailbreak baseado em persona para levar o Gemini a pesquisar falhas de firmware.
Daybreak e Glasswing lideram a ofensiva dos defensores
Na mesma semana em que as descobertas do Google se tornaram públicas, OpenAI launched Daybreak, uma iniciativa de cibersegurança que combina GPT-5.5 e Codex Security para ajudar defensores a encontrar e corrigir falhas.
O Daybreak funciona em um sistema de acesso em camadas. Defensores verificados podem usar o GPT-5.5 com Trusted Access for Cyber, enquanto uma variante mais permissiva, o GPT-5.5-Cyber, cobre red teaming e validação controlada.
Sam Altman disse que a OpenAI quer trabalhar com o máximo possível de empresas para proteger continuamente seus softwares.
O Daybreak entra em um mercado já moldado pelo Project Glasswing da Anthropic's Project Glasswing, which uses Claude Mythos Preview para vasculhar bases de código de parceiros em busca de falhas graves. Apple, Microsoft, Google, Amazon e JPMorgan Chase já aderiram. Os programas concorrentes refletem uma aposta mais ampla de que modelos de fronteira podem inclinar a balança a favor dos defensores, mesmo enquanto atacantes correm para fazer o mesmo.
Read Next: Sui Rallies 37% As Nasdaq Firm Locks Up 2.7% Of Supply





