Google affirme avoir perturbé la tentative d’un groupe de pirates criminels de militariser une faille zero-day créée avec l’aide d’un modèle d’IA, une première documentée.
Google stoppe un contournement 2FA conçu par IA
Le Google Threat Intelligence Group, connu sous le sigle GTIG, a dévoilé cette intervention lundi dans son dernier rapport AI Threat Tracker.
Les chercheurs ont découvert la faille dans un script Python conçu pour contourner l’authentification à deux facteurs sur un outil populaire d’administration système web open source.
Google a refusé de nommer le fournisseur concerné ou l’acteur malveillant.
Le GTIG indique avoir travaillé avec le fournisseur pour corriger la faille et averti les forces de l’ordre avant qu’une exploitation de masse ne puisse commencer.
L’équipe a repéré dans le code des traces révélatrices d’une écriture générée par machine, notamment un score CVSS halluciné, des docstrings pédagogiques et un format Pythonique « livresque » conforme aux données d’entraînement des grands modèles de langage. Google ajoute avoir une forte confiance dans le fait qu’un modèle d’IA a aidé à la découverte et à l’armement de la faille, même si l’entreprise ne pense pas que son propre modèle Gemini ait été impliqué.
À lire aussi : Tom Lee Calls Crypto Spring As Bitmine Stakes $11.1B In ETH
Les experts avertissent : l’ère du hacking par IA est arrivée
John Hultquist, analyste en chef au GTIG, a présenté ce cas comme une preuve tangible d’une menace annoncée de longue date.
« Elle est là », a-t-il déclaré aux journalistes. L’ère de l’exploitation de vulnérabilités pilotée par l’IA a déjà commencé, a-t-il ajouté, les cas visibles laissant supposer de nombreux autres dans la nature.
Les analystes en sécurité soulignent que le type de faille compte autant que l’outil utilisé pour la trouver.
Le bug était une erreur de logique sémantique, une hypothèse de confiance codée en dur que les fuzzers et analyseurs statiques traditionnels détectent mal, mais que les modèles de pointe peuvent raisonner à travers.
Google a également documenté l’extension de l’usage de l’IA par des groupes liés à des États tout au long de la chaîne d’attaque. L’APT45 nord-coréen envoie des milliers d’invites répétitives pour analyser récursivement des vulnérabilités, tandis qu’un acteur lié à la Chine a utilisé un jailbreak fondé sur des personas pour pousser Gemini à rechercher des failles de firmware.
Daybreak et Glasswing en tête de la riposte des défenseurs
La même semaine où les conclusions de Google ont été rendues publiques, OpenAI a lancé Daybreak, une initiative de cybersécurité associant GPT-5.5 et Codex Security pour aider les défenseurs à trouver et corriger des failles.
Daybreak repose sur un système d’accès par niveaux. Les défenseurs vérifiés peuvent utiliser GPT-5.5 avec Trusted Access for Cyber, tandis qu’une variante plus permissive, GPT-5.5-Cyber, couvre le red teaming et la validation contrôlée.
Sam Altman a déclaré qu’OpenAI souhaite collaborer avec le plus grand nombre possible d’entreprises pour sécuriser en continu leurs logiciels.
Daybreak arrive sur un marché déjà marqué par le Project Glasswing d’Anthropic, qui utilise Claude Mythos Preview pour analyser les bases de code de partenaires à la recherche de failles graves. Apple, Microsoft, Google, Amazon et JPMorgan Chase ont déjà signé. Ces programmes concurrents traduisent un pari plus large : les modèles de pointe pourraient faire pencher la balance en faveur des défenseurs, même si les attaquants se précipitent pour en faire de même.
À lire ensuite : Sui Rallies 37% As Nasdaq Firm Locks Up 2.7% Of Supply





