Enterprise AI agents überfluten das Web. Sie durchsuchen Seiten, fragen APIs ab, füllen Formulare aus und führen mehrstufige Aufgaben im Auftrag von Nutzern und Organisationen aus.
Das Problem ist, dass die meiste Web-Infrastruktur sie nicht von bösartigen Bots unterscheiden kann, according to Forbes.
Diese Unterscheidung wird von Quartal zu Quartal wichtiger. Unternehmen, die sämtlichen nicht-menschlichen Traffic blockieren, riskieren, legitime KI-gesteuerte Workflows abzuschneiden. Wer dagegen alles zulässt, riskiert Data Scraping, Credential Stuffing und Betrug.
Das Ausmaß des Problems
Bot-Traffic plagt das Web seit Jahren. Klassische Schutzmechanismen wie CAPTCHAs, Rate Limiting und IP-Reputationslisten wurden für ein bestimmtes Bedrohungsmodell entwickelt. Dieses Modell ging davon aus, dass Angreifer Skripte ausführen, um bösartige Aufgaben zu automatisieren.
KI-Agenten durchbrechen diese Annahme. Ein gut gestalteter KI-Agent verhält sich ähnlich wie ein sorgfältiger menschlicher Nutzer. Er navigiert Seiten in der richtigen Reihenfolge, pausiert zwischen Anfragen und reagiert dynamisch auf Eingaben. Standard-Bot-Erkennungstools stufen ihn als risikoarm ein.
Gleichzeitig kann ein Angreifer ein leichtgewichtiges Modell trainieren, das das Verhalten legitimer Agenten imitiert. Die Lücke zwischen einem vertrauenswürdigen Enterprise-KI-Agenten und einem gut getarnten Scraper hat sich in den vergangenen 18 Monaten deutlich verringert.
Was Unternehmen derzeit tun
Mehrere Ansätze setzen sich in den Sicherheitsteams von Unternehmen zunehmend durch.
Agenten-Identitätstoken sind eine Methode. Ein KI-Agent authentifiziert sich mit einem kryptografisch signierten Berechtigungsnachweis, bevor er auf einen Dienst zugreift. Der Dienst prüft diesen Nachweis gegen ein bekanntes Register zugelassener Agenten. Das ähnelt der Art und Weise, wie OAuth die Anwendungsautorisierung für menschliche Nutzer handhabt.
Verhaltensbasierte Fingerabdrücke bilden eine weitere Ebene. Selbst wenn ein Agent gültige Zugangsdaten vorlegt, verfolgen Sicherheitssysteme Sitzungsmuster wie Anfragetiming, Navigationstiefe und Sequenzen von API-Aufrufen. Abweichungen von den erwarteten Mustern lösen zusätzliche Verifizierungsschritte aus.
Allowlisting durch Intent-Erklärung ist noch experimentell. In diesem Modell erklären Agenten zu Beginn einer Sitzung ihre Aufgabenabsicht. Das Hostsystem gewährt nur Zugriff auf die Ressourcen, die für diese deklarierte Aufgabe erforderlich sind. Jeder Zugriff außerhalb dieses Rahmens wird automatisch markiert.
Keiner dieser Ansätze hat sich bislang als Standard etabliert. Die meisten Enterprise-Implementierungen kombinieren zwei oder drei dieser Methoden.
Die Krypto-Verbindung
Der Aufstieg von KI-Agenten überschneidet sich direkt mit dem Krypto- und Web3-Ökosystem. Autonome Agenten, die auf Blockchain-Netzwerken operieren, werden immer häufiger. Sie führen Trades aus, verwalten Wallets, stimmen in Governance-Systemen ab und interagieren mit decentralized exchanges.
In diesem Kontext hat die Unterscheidung zwischen Bot und Agent finanzielle Tragweite. Ein bösartiger Agent, der einen legitimen Trading-Bot imitiert, könnte eine Wallet leerräumen oder einen Liquiditätspool manipulieren, noch bevor ein Mensch die Sitzungsprotokolle prüft.
Mehrere Blockchain-Projekte entwickeln On-Chain-Identitätsrahmen speziell für KI-Agenten. Die Idee ist, jedem Agenten einen überprüfbaren, dezentralen Identifikator zuzuordnen, der einen prüfbaren Verlauf all seiner Aktionen über Protokolle hinweg schafft. Auf Solana (SOL) basierende Agenten-Frameworks gehören zu den aktivsten in diesem Bereich, unter anderem weil Solanas Transaktionsdurchsatz hochfrequente Agenten-Operationen zu geringen Kosten ermöglicht.
Hintergrund
Der Markt für KI-Agenten ist seit Ende 2024 stark gewachsen. Frühe Implementierungen waren überwiegend eng fokussierte Tools, die einzelne Aufgaben wie E-Mail-Sortierung oder Kalenderplanung automatisierten. Bis Anfang 2026 hatten sich mehrstufige, autonome Agenten, die im Web browsen, Code schreiben und Finanztransaktionen ausführen können, von Forschungsdemos zu kommerziellen Produkten entwickelt. Dieser Wandel erhöhte das Volumen agentengenerierten Web-Traffics Schätzungen zufolge um mehrere Hundert Prozent im Jahresvergleich, basierend auf Infrastrukturberichten großer Cloud-Anbieter. Yellow.com verfolgte die Schnittstelle von KI-Infrastruktur und Kryptomärkten in seinem jüngsten Bericht (siehe frühere Yellow-Berichterstattung), der eine Vereinbarung über den Aufbau nordamerikanischer KI-Rechenzentren beschrieb.
Auch lesen: BTC And ETH Fall Overnight As Japan Data Adds Fresh Pressure To Geopolitical Selloff
Wie es weitergeht
Regulatorischer Druck beginnt sich abzuzeichnen. Der AI Act der EU enthält Bestimmungen zu automatisierten Entscheidungsprozessen, die langfristig eine Offenlegung von Agenten beim Webzugriff verlangen könnten. In den USA existiert bislang kein entsprechender bundesweiter Standard, aber mehrere Gesetzesvorschläge auf Bundesstaatsebene befinden sich in frühen Stadien.
Branchenverbände wie das World Wide Web Consortium prüfen technische Standards für die Authentifizierung von Agenten. Die Fortschritte sind langsam. Ein Konsens zwischen Browser-Herstellern, Enterprise-Softwareanbietern und Sicherheitsfirmen braucht Zeit.
Derzeit am stärksten exponiert sind Unternehmen, die hochkritische APIs ohne starke Authentifizierungsschichten betreiben. Finanzdienstleister, Gesundheitsplattformen und Krypto-Börsen fallen in diese Kategorie. Sie alle haben guten Grund, das Problem der Agenten-Identifikation als dringend und nicht nur theoretisch zu betrachten.
Das Zeitfenster, in dem sich Standards etablieren lassen, bevor Agenten-Traffic unbeherrschbar wird, schließt sich. Sicherheitsforscher, die Bot-Ökosysteme untersuchen, schätzen, dass agentengenerierter Traffic innerhalb von zwei bis drei Jahren den Großteil der nicht-CDN-Webanfragen ausmachen könnte, falls die Verbreitung in der aktuellen Geschwindigkeit anhält.
Als Nächstes lesen: America Runs A Bitcoin Node: What The Government's Move Means For The Network





