Google afirma que interrumpió el intento de un grupo de hackers criminales de convertir en arma una vulnerabilidad de tipo zero-day creada con ayuda de un modelo de IA, el primer caso de este tipo registrado.
Google detiene un bypass de 2FA creado con IA
El Google Threat Intelligence Group, conocido como GTIG, disclosed la intervención el lunes en su último informe AI Threat Tracker.
Los investigadores encontraron la vulnerabilidad en un script de Python diseñado para eludir la autenticación de dos factores en una popular herramienta de administración de sistemas basada en la web y de código abierto.
Google se negó a nombrar al proveedor afectado o al actor de la amenaza.
GTIG indicó que worked con el proveedor para corregir la vulnerabilidad y notificó a las fuerzas de seguridad antes de que pudiera comenzar cualquier explotación masiva.
El equipo detectó señales reveladoras de autoría automática en el código, incluida una puntuación CVSS inventada, docstrings de carácter educativo y un formato pitónico de libro de texto coherente con los datos de entrenamiento de modelos de lenguaje grande. Google añadió que tiene alta confianza en que un modelo de IA ayudó en el descubrimiento y la militarización de la vulnerabilidad, aunque no cree que su propio Gemini estuviera implicado.
Also Read: Tom Lee Calls Crypto Spring As Bitmine Stakes $11.1B In ETH
Expertos advierten que la era del hacking con IA ya está aquí
John Hultquist, analista jefe de GTIG, calificó el caso como evidencia tangible de una amenaza largamente advertida.
«Ya está aquí», dijo Hultquist a los periodistas. La era de la explotación de vulnerabilidades impulsada por IA ya ha comenzado, añadió, con casos visibles que apuntan a muchos más en la naturaleza.
Analistas de seguridad señalan que el tipo de vulnerabilidad importa tanto como la herramienta utilizada para encontrarla.
El fallo era un error de lógica semántica, una suposición de confianza codificada de forma rígida que los fuzzers tradicionales y los escáneres estáticos detectan mal, pero que los modelos de frontera pueden reason de forma razonada.
Google también documentó que grupos vinculados a Estados están ampliando el uso de IA a lo largo de toda la cadena de ataque. El APT45 de Corea del Norte ha estado enviando miles de prompts repetitivos para analizar vulnerabilidades de forma recursiva, mientras que un actor vinculado a China utilizó una jailbreak basada en persona para empujar a Gemini a investigar fallos de firmware.
Daybreak y Glasswing lideran el impulso defensor
La misma semana en que se hicieron públicos los hallazgos de Google, OpenAI launched Daybreak, una iniciativa de ciberseguridad que combina GPT-5.5 y Codex Security para ayudar a los defensores a encontrar y corregir vulnerabilidades.
Daybreak funciona con un sistema de acceso por niveles. Los defensores verificados pueden usar GPT-5.5 with Trusted Access for Cyber, mientras que una variante más permisiva, GPT-5.5-Cyber, cubre red teaming y validación controlada.
Sam Altman dijo que OpenAI quiere trabajar con la mayor cantidad posible de empresas para asegurar continuamente su software.
Daybreak entra en un mercado ya configurado por el Project Glasswing de Anthropic's Project Glasswing, which uses Claude Mythos Preview para escanear bases de código de socios en busca de fallos graves. Apple, Microsoft, Google, Amazon y JPMorgan Chase ya se han adherido. Los programas competidores reflejan una apuesta más amplia de que los modelos de frontera pueden inclinar la balanza a favor de los defensores, incluso mientras los atacantes corren para hacer lo mismo.
Read Next: Sui Rallies 37% As Nasdaq Firm Locks Up 2.7% Of Supply





