Google afirma que interrumpió el intento de un grupo de hackers criminales de convertir en arma una vulnerabilidad de tipo zero‑day creada con ayuda de un modelo de IA, el primer caso de este tipo del que se tiene registro.
Google detiene un bypass de 2FA creado con IA
El Google Threat Intelligence Group, conocido como GTIG, disclosed la intervención el lunes en su último informe AI Threat Tracker.
Los investigadores encontraron la vulnerabilidad en un script de Python diseñado para eludir la autenticación de dos factores en una popular herramienta de administración de sistemas basada en la web y de código abierto.
Google se negó a revelar el nombre del proveedor afectado o del actor de amenazas.
GTIG afirmó que worked con el proveedor para corregir la vulnerabilidad y notificó a las fuerzas de seguridad antes de que pudiera comenzar cualquier explotación masiva.
El equipo detectó señales reveladoras de autoría automática en el código, incluida una puntuación CVSS alucinada, docstrings educativos y un formato Pythonic de libro de texto coherente con los datos de entrenamiento de grandes modelos de lenguaje. Google añadió que tiene alta confianza en que un modelo de IA ayudó al descubrimiento y la explotación de la vulnerabilidad, aunque no cree que su propio Gemini estuviera implicado.
También lee: Tom Lee Calls Crypto Spring As Bitmine Stakes $11.1B In ETH
Expertos advierten que la era del hacking con IA ya está aquí
John Hultquist, analista jefe en GTIG, calificó el caso como evidencia tangible de una amenaza largamente advertida.
«Ya está aquí», dijo Hultquist a los periodistas. La era de la explotación de vulnerabilidades impulsada por IA ya ha comenzado, añadió, y los casos visibles apuntan a muchos más que circulan libremente.
Analistas de seguridad señalan que el tipo de vulnerabilidad importa tanto como la herramienta utilizada para encontrarla.
El fallo era un error de lógica semántica, una suposición de confianza codificada que los fuzzers y escáneres estáticos tradicionales detectan mal, pero que los modelos de frontera pueden reason con mayor eficacia.
Google también documentó cómo grupos vinculados a estados están ampliando el uso de IA a lo largo de toda la cadena de ataque. El APT45 de Corea del Norte ha estado enviando miles de prompts repetitivos para analizar vulnerabilidades de forma recursiva, mientras que un actor vinculado a China utilizó un jailbreak basado en persona para forzar a Gemini a investigar fallos de firmware.
Daybreak y Glasswing lideran el impulso de los defensores
La misma semana en que se hicieron públicos los hallazgos de Google, OpenAI launched Daybreak, una iniciativa de ciberseguridad que combina GPT‑5.5 y Codex Security para ayudar a los defensores a encontrar y parchear vulnerabilidades.
Daybreak funciona con un sistema de acceso por niveles. Los defensores verificados pueden usar GPT‑5.5 con Trusted Access for Cyber, mientras que una variante más permisiva, GPT‑5.5‑Cyber, cubre red teaming y validación controlada.
Sam Altman dijo que OpenAI quiere trabajar con el mayor número posible de empresas para asegurar continuamente su software.
Daybreak entra en un mercado ya moldeado por Anthropic's Project Glasswing, which uses Claude Mythos Preview para escanear los repositorios de código de sus socios en busca de fallos graves. Apple, Microsoft, Google, Amazon y JPMorgan Chase se han sumado al programa. Estos proyectos competidores reflejan una apuesta más amplia: que los modelos de frontera puedan inclinar la balanza a favor de los defensores, incluso mientras los atacantes se apresuran a hacer lo mismo.
Lee a continuación: Sui Rallies 37% As Nasdaq Firm Locks Up 2.7% Of Supply





