Google afirma que frustrou a tentativa de um grupo de hackers criminosos de transformar em arma uma vulnerabilidade zero-day criada com ajuda de um modelo de IA, o primeiro caso desse tipo já registrado.
Google impede bypass de 2FA criado por IA
O Google Threat Intelligence Group, conhecido como GTIG, disclosed a intervenção na segunda-feira em seu mais recente relatório AI Threat Tracker.
Pesquisadores encontraram a falha em um script Python projetado para burlar a autenticação de dois fatores em uma popular ferramenta de administração de sistemas baseada na web e de código aberto.
Google se recusou a nomear o fornecedor afetado ou o agente de ameaça.
O GTIG afirmou que worked com o fornecedor para corrigir a falha e notificou as autoridades policiais antes que qualquer exploração em massa pudesse começar.
A equipe identificou pistas claras de autoria por máquina no código, incluindo uma pontuação de severidade CVSS alucinada, docstrings com tom educacional e um formato Python “didático” consistente com dados de treinamento de grandes modelos de linguagem. O Google acrescentou que tem alta confiança de que um modelo de IA ajudou na descoberta e na transformação da falha em arma, embora não acredite que o seu próprio Gemini tenha sido envolvido.
Also Read: Tom Lee Calls Crypto Spring As Bitmine Stakes $11.1B In ETH
Especialistas alertam que a era de hacks com IA já chegou
John Hultquist, analista-chefe do GTIG, chamou o caso de evidência tangível de uma ameaça há muito anunciada.
“Ela chegou”, disse Hultquist a repórteres. A era da exploração de vulnerabilidades conduzida por IA já começou, acrescentou ele, com casos visíveis apontando para muitos outros em circulação.
Analistas de segurança afirmam que o tipo de falha importa tanto quanto a ferramenta usada para encontrá-la.
A falha era um erro de lógica semântica, uma suposição de confiança codificada que fuzzers tradicionais e scanners estáticos não conseguem detectar bem, mas que modelos de fronteira conseguem reason analisar.
O Google também documentou grupos ligados a Estados ampliando o uso de IA em toda a cadeia de ataque. O APT45 da Coreia do Norte tem enviado milhares de prompts repetitivos para analisar vulnerabilidades de forma recursiva, enquanto um agente ligado à China usou um jailbreak baseado em persona para forçar o Gemini a pesquisar falhas em firmware.
Daybreak e Glasswing lideram a ofensiva dos defensores
Na mesma semana em que as descobertas do Google se tornaram públicas, a OpenAI launched Daybreak, uma iniciativa de cibersegurança que combina GPT-5.5 e Codex Security para ajudar defensores a encontrar e corrigir falhas.
O Daybreak funciona com um sistema de acesso em camadas. Defensores verificados podem usar o GPT-5.5 com Trusted Access for Cyber, enquanto uma variante mais permissiva, GPT-5.5-Cyber, cobre atividades de red teaming e validação controlada.
Sam Altman disse que a OpenAI quer trabalhar com o maior número possível de empresas para proteger continuamente seus softwares.
O Daybreak entra em um mercado já moldado pelo Project Glasswing da Anthropic's Project Glasswing, which uses Claude Mythos Preview para analisar bases de código de parceiros em busca de falhas graves. Apple, Microsoft, Google, Amazon e JPMorgan Chase já aderiram. Os programas concorrentes refletem uma aposta mais ampla de que modelos de fronteira podem inclinar a balança a favor dos defensores, mesmo enquanto atacantes correm para fazer o mesmo.
Read Next: Sui Rallies 37% As Nasdaq Firm Locks Up 2.7% Of Supply





