Google sagt, es habe den Versuch einer kriminellen Hackergruppe gestoppt, eine mit Hilfe eines KI‑Modells entwickelte Zero‑Day‑Schwachstelle zu Waffen zu machen – der erste bekannte Fall dieser Art.
Google stoppt KI‑entwickelten 2FA‑Bypass
Die Google Threat Intelligence Group, bekannt als GTIG, disclosed den Eingriff am Montag in ihrem neuesten AI Threat Tracker‑Bericht.
Forschende fanden die Schwachstelle in einem Python‑Skript, das dazu entwickelt worden war, die Zwei‑Faktor‑Authentifizierung in einem populären Open‑Source‑, webbasierten Systemadministrationstool zu umgehen.
Google lehnte es ab, den betroffenen Anbieter oder den Bedrohungsakteur zu benennen.
GTIG erklärte, es habe worked mit dem Anbieter zusammengearbeitet, um die Schwachstelle zu patchen, und die Strafverfolgungsbehörden informiert, bevor ein massenhafter Missbrauch beginnen konnte.
Das Team markierte verräterische Spuren maschineller Autorschaft im Code, darunter einen halluzinierten CVSS‑Schweregrad, lehrhafte Docstrings und ein lehrbuchhaft „pythonic“ Format, das typisch für Trainingsdaten großer Sprachmodelle ist. Google fügte hinzu, man sei mit hoher Sicherheit überzeugt, dass ein KI‑Modell bei Entdeckung und Bewaffnung assistierte, glaube aber nicht, dass das eigene Gemini beteiligt war.
Also Read: Tom Lee Calls Crypto Spring As Bitmine Stakes $11.1B In ETH
Expert:innen warnen: Ära des KI‑Hackings ist da
John Hultquist, Chefanalyst bei GTIG, nannte den Fall einen greifbaren Beleg für eine seit Langem beschworene Bedrohung.
„Es ist soweit“, sagte Hultquist gegenüber Journalist:innen. Die Ära KI‑getriebener Ausnutzung von Schwachstellen habe bereits begonnen, fügte er hinzu; sichtbare Fälle deuteten auf viele weitere in freier Wildbahn hin.
Sicherheitsanalyst:innen sagen, dass der Fehlertyp ebenso wichtig ist wie das Werkzeug, mit dem er gefunden wurde.
Der Bug war ein semantischer Logikfehler, eine hart codierte Vertrauensannahme, die traditionelle Fuzzer und statische Scanner nur schwer erkennen können, durch die sich Frontier‑Modelle jedoch reason durcharbeiten können.
Google dokumentierte außerdem, dass staatsnahe Gruppen ihre KI‑Nutzung entlang der gesamten Angriffskette ausweiten. Nordkoreas APT45 schickt Tausende sich wiederholender Prompts, um Schwachstellen rekursiv zu analysieren, während ein mit China in Verbindung gebrachter Akteur einen personenbezogenen Jailbreak nutzte, um Gemini zur Recherche von Firmware‑Schwachstellen zu drängen.
Daybreak und Glasswing treiben Verteidiger‑Push an
In derselben Woche, in der Googles Ergebnisse veröffentlicht wurden, OpenAI launched Daybreak, eine Cybersicherheitsinitiative, die GPT‑5.5 und Codex Security kombiniert, um Verteidiger:innen beim Finden und Beheben von Schwachstellen zu unterstützen.
Daybreak läuft mit einem gestuften Zugriffssystem. Verifizierte Verteidiger:innen können GPT‑5.5 mit Trusted Access for Cyber nutzen, während eine permissivere Variante GPT‑5.5‑Cyber Red‑Teaming und kontrollierte Validierung abdeckt.
Sam Altman sagte, OpenAI wolle mit so vielen Unternehmen wie möglich zusammenarbeiten, um deren Software kontinuierlich zu sichern.
Daybreak tritt in einen Markt ein, der bereits von Anthropic's Project Glasswing, which uses Claude Mythos Preview geprägt ist, um Codebasen von Partnern nach schwerwiegenden Schwachstellen zu scannen. Apple, Microsoft, Google, Amazon und JPMorgan Chase sind bereits an Bord. Die konkurrierenden Programme spiegeln die breitere Wette wider, dass Frontier‑Modelle das Kräfteverhältnis zugunsten der Verteidiger verschieben können – selbst während Angreifer versuchen, dasselbe zu tun.
Read Next: Sui Rallies 37% As Nasdaq Firm Locks Up 2.7% Of Supply





