Google berichtet, einen Versuch einer kriminellen Hackergruppe vereitelt zu haben, eine Zero-Day-Schwachstelle mit Hilfe eines KI-Modells zu bewaffnen – der erste bekannte Fall dieser Art.
Google stoppt KI-entwickelte 2FA-Bypass-Lücke
Die Google Threat Intelligence Group (GTIG) hat den Eingriff am Montag in ihrem neuesten AI Threat Tracker-Bericht offengelegt.
Forschende fanden die Schwachstelle in einem Python-Skript, das dafür entwickelt wurde, die Zwei-Faktor-Authentifizierung eines verbreiteten Open-Source-, webbasierten Systemadministrations-Tools zu umgehen.
Google lehnte es ab, den betroffenen Anbieter oder den Bedrohungsakteur zu benennen.
GTIG erklärte, man habe mit dem Anbieter zusammengearbeitet, um die Lücke zu schließen, und Strafverfolgungsbehörden informiert, bevor eine massenhafte Ausnutzung beginnen konnte.
Das Team identifizierte verräterische Spuren maschineller Urheberschaft im Code, darunter einen halluzinierten CVSS-Schweregrad, lehrhafte Docstrings und ein lehrbuchhaft „pythonic“ Format, wie es aus Trainingsdaten großer Sprachmodelle bekannt ist. Google fügte hinzu, man habe hohe Sicherheit, dass ein KI-Modell bei Entdeckung und Bewaffnung half, glaube jedoch nicht, dass das eigene Gemini involviert war.
Also lesen: Tom Lee Calls Crypto Spring As Bitmine Stakes $11.1B In ETH
Expert:innen warnen: Ära des KI-Hackings hat begonnen
John Hultquist, Chefanalyst bei GTIG, bezeichnete den Fall als greifbaren Beleg für eine seit Langem befürchtete Bedrohung.
„Sie ist da“, sagte Hultquist gegenüber Reporter:innen. Die Ära KI-getriebener Schwachstellenausnutzung habe bereits begonnen, fügte er hinzu; sichtbare Fälle deuteten auf viele weitere im Verborgenen hin.
Sicherheitsanalyst:innen betonen, dass der Typ der Schwachstelle ebenso wichtig ist wie das Werkzeug zu ihrer Entdeckung.
Der Bug war ein semantischer Logikfehler, eine fest codierte Vertrauensannahme, die herkömmliche Fuzzer und statische Scanner nur schlecht erkennen, die Grenzmodelle jedoch erkennen und durchdenken können.
Google dokumentierte außerdem, wie staatsnahe Gruppen KI zunehmend entlang der gesamten Angriffskette einsetzen. Nordkoreas APT45 verschickt Tausende sich wiederholender Prompts, um Schwachstellen rekursiv zu analysieren, während ein mit China verknüpfter Akteur einen rollenbasierten Jailbreak nutzte, um Gemini zur Recherche von Firmware-Schwachstellen zu bewegen.
Daybreak und Glasswing treiben Verteidiger-Offensive an
In derselben Woche, in der Googles Ergebnisse publik wurden, startete OpenAI Daybreak, eine Cybersicherheitsinitiative, die GPT-5.5 und Codex Security kombiniert, um Verteidiger:innen bei der Suche nach und Behebung von Schwachstellen zu unterstützen.
Daybreak läuft mit einem gestuften Zugriffssystem. Verifizierte Verteidiger:innen können GPT-5.5 mit Trusted Access for Cyber nutzen, während eine freizügigere Variante GPT-5.5-Cyber Red-Teaming und kontrollierte Validierung abdeckt.
Sam Altman sagte, OpenAI wolle mit möglichst vielen Unternehmen zusammenarbeiten, um deren Software kontinuierlich abzusichern.
Daybreak betritt einen Markt, der bereits von Anthropics Project Glasswing geprägt ist, das Claude Mythos Preview nutzt, um Codebasen von Partnern nach schweren Schwachstellen zu scannen. Apple, Microsoft, Google, Amazon und JPMorgan Chase sind bereits an Bord. Die konkurrierenden Programme spiegeln die breitere Wette wider, dass Grenzmodelle das Kräfteverhältnis zugunsten der Verteidiger verschieben können – auch wenn Angreifer in dasselbe Wettrennen einsteigen.
Als Nächstes lesen: Sui Rallies 37% As Nasdaq Firm Locks Up 2.7% Of Supply





