Корпоративные AI agents заполняют веб. Они просматривают страницы, обращаются к API, заполняют формы и выполняют многошаговые задачи от имени пользователей и организаций.
Проблема в том, что большая часть веб-инфраструктуры не может отличить их от вредоносных ботов, according to Forbes.
Это различие становится всё важнее с каждым кварталом. Компании, которые блокируют весь неличный трафик, рискуют оборвать легитимные рабочие процессы, управляемые ИИ. Те, кто разрешает всё, рискуют столкнуться с парсингом данных, перебором учётных данных и мошенничеством.
Масштаб проблемы
Бот-трафик мучает веб уже много лет. Традиционные методы защиты — CAPTCHA, ограничение частоты запросов и списки репутации IP — были созданы под определённую модель угроз. Эта модель исходила из того, что злоумышленники запускают скрипты для автоматизации вредоносных действий.
AI-агенты ломают это предположение. Хорошо спроектированный AI-агент ведёт себя почти как аккуратный человек. Он последовательно переходит по страницам, делает паузы между запросами и динамически отвечает на подсказки. Стандартные средства обнаружения ботов оценивают его как низкорискового.
В то же время злоумышленник может обучить лёгкую модель имитировать поведение легитимного агента. Разрыв между доверенным корпоративным AI-агентом и хорошо замаскированным скрейпером заметно сократился за последние 18 месяцев.
Что делают компании сейчас
Среди команд по безопасности крупных предприятий набирает обороты несколько подходов.
Токены идентичности агента — один из методов. AI-агент аутентифицируется с помощью криптографически подписанного удостоверения перед доступом к сервису. Сервис сверяет это удостоверение с известным реестром одобренных агентов. Это похоже на то, как OAuth обрабатывает авторизацию приложений для людей-пользователей.
Поведенческий отпечаток — ещё один уровень. Даже если агент предоставляет действительные учётные данные, системы безопасности отслеживают шаблоны сессий, включая время запросов, глубину навигации и последовательности вызовов API. Отклонения от ожидаемых шаблонов запускают дополнительные шаги проверки.
Внесение в список разрешённых по декларируемому намерению — более экспериментальный подход. В этой модели агенты в начале сессии объявляют цель своей задачи. Хост-система предоставляет доступ только к тем ресурсам, которые нужны для заявленной задачи. Любой доступ вне этих рамок автоматически помечается.
Ни один из подходов не стал стандартом. Большинство корпоративных внедрений комбинируют два или три таких метода.
Крипто-связь
Рост числа AI-агентов напрямую пересекается с экосистемой крипто и Web3. Автономные агенты, работающие в блокчейн-сетях, становятся всё более распространёнными. Они совершают сделки, управляют кошельками, голосуют в системах управления и взаимодействуют с decentralized exchanges.
В этом контексте различие «бот против агента» имеет финансовые последствия. Вредоносный агент, имитирующий легитимного торгового бота, может опустошить кошелёк или манипулировать пулом ликвидности ещё до того, как человек просмотрит лог сессии.
Несколько блокчейн-проектов разрабатывают ончейн-фреймворки идентичности специально для AI-агентов. Идея в том, чтобы прикрепить к каждому агенту проверяемый децентрализованный идентификатор, создавая аудируемую запись каждого его действия в разных протоколах. Фреймворки агентов на базе Solana (SOL) были одними из самых активных в этом направлении, отчасти потому, что пропускная способность Solana поддерживает высокочастотные операции агентов при низкой стоимости.
Справочная информация
Рынок AI-агентов резко вырос с конца 2024 года. Ранние внедрения в основном представляли собой узкоспециализированные инструменты, автоматизирующие одиночные задачи, такие как сортировка электронной почты или планирование календаря. К началу 2026 года многошаговые автономные агенты, способные просматривать веб, писать код и выполнять финансовые транзакции, перешли из разряда исследовательских демонстраций в коммерческие продукты. Этот сдвиг увеличил объём генерируемого агентами веб-трафика, по оценкам, на несколько сотен процентов год к году, согласно отчётам по инфраструктуре крупных облачных провайдеров. Yellow.com отслеживал пересечение AI-инфраструктуры и крипторынков в недавнем материале (see prior Yellow coverage), в рамках которого было подписано соглашение о строительстве центров обработки данных ИИ в Северной Америке.
Также читайте: BTC And ETH Fall Overnight As Japan Data Adds Fresh Pressure To Geopolitical Selloff
Что будет дальше
Начинает формироваться регуляторное давление. Закон ЕС об ИИ (AI Act) включает положения об автоматизированном принятии решений, которые в перспективе могут потребовать раскрытия статуса агента в момент веб-доступа. В США пока нет эквивалентного федерального стандарта, но несколько законопроектов на уровне штатов находятся на ранних стадиях рассмотрения.
Отраслевые группы, включая World Wide Web Consortium, изучают технические стандарты для аутентификации агентов. Прогресс идёт медленно. Для достижения консенсуса между производителями браузеров, корпоративными разработчиками ПО и компаниями в области безопасности требуется время.
На данный момент наибольшему риску подвержены компании, которые запускают высокоценные API без сильных уровней аутентификации. К этой категории относятся финансовые сервисы, медицинские платформы и криптобиржи. Каждой из них есть смысл воспринимать задачу идентификации агентов как срочную, а не теоретическую.
Окно возможностей для введения стандартов до того, как трафик агентов станет неуправляемым, стремительно сужается. Исследователи безопасности, изучающие экосистемы ботов, оценивают, что трафик, генерируемый агентами, может составить большинство не-CDN веб-запросов в течение двух-трёх лет, если темпы внедрения сохранятся.
Read Next: America Runs A Bitcoin Node: What The Government's Move Means For The Network






