Agentes corporativos de IA estão inundando a web. Eles navegam, consultam APIs, preenchem formulários e executam tarefas em várias etapas em nome de usuários e organizações.
O problema é que a maior parte da infraestrutura da web não consegue diferenciá-los de bots maliciosos, segundo a Forbes.
Essa distinção se torna mais importante a cada trimestre. Empresas que bloqueiam todo o tráfego não humano correm o risco de interromper fluxos de trabalho legítimos impulsionados por IA. As que permitem tudo correm risco de scraping de dados, ataques de força bruta a credenciais e fraude.
A Dimensão do Problema
O tráfego de bots assombra a web há anos. Defesas tradicionais, incluindo CAPTCHAs, limitação de taxa e listas de reputação de IP, foram projetadas para um modelo de ameaça específico. Esse modelo assumia que agentes mal-intencionados executavam scripts para automatizar tarefas maliciosas.
Agentes de IA quebram essa suposição. Um agente de IA bem projetado se comporta muito como um usuário humano cuidadoso. Ele navega em páginas em sequência, faz pausas entre requisições e responde a prompts de forma dinâmica. Ferramentas padrão de detecção de bots o classificam como de baixo risco.
Ao mesmo tempo, um agente malicioso pode treinar um modelo leve para imitar o comportamento de um agente legítimo. A diferença entre um agente de IA corporativo confiável e um scraper bem disfarçado diminuiu significativamente nos últimos 18 meses.
O Que as Empresas Estão Fazendo Agora
Várias abordagens estão ganhando força entre as equipes de segurança corporativa.
Tokens de identidade de agente representam um dos métodos. Um agente de IA se autentica usando uma credencial assinada criptograficamente antes de acessar um serviço. O serviço verifica a credencial em um registro conhecido de agentes aprovados. Isso espelha a forma como o OAuth lida com autorização de aplicativos para usuários humanos.
Impressão digital comportamental é outra camada. Mesmo que um agente apresente credenciais válidas, sistemas de segurança rastreiam padrões de sessão, incluindo tempo entre requisições, profundidade de navegação e sequências de chamadas de API. Desvios em relação aos padrões esperados acionam etapas adicionais de verificação.
Lista de permissão por declaração de intenção é mais experimental. Nesse modelo, agentes declaram a intenção da tarefa no início de uma sessão. O sistema hospedeiro concede acesso apenas aos recursos necessários para essa tarefa declarada. Qualquer acesso fora desse escopo é automaticamente sinalizado.
Nenhuma abordagem isolada se tornou padrão. A maioria das implantações corporativas combina dois ou três desses métodos.
A Conexão com o Cripto
A ascensão de agentes de IA se cruza diretamente com o ecossistema cripto e Web3. Agentes autônomos que operam em redes blockchain são cada vez mais comuns. Eles executam trades, administram carteiras, votam em sistemas de governança e interagem com corretoras descentralizadas.
Nesse contexto, a distinção entre bot e agente tem peso financeiro. Um agente malicioso que imita um bot de trading legítimo pode drenar uma carteira ou manipular um pool de liquidez antes que qualquer humano revise o registro da sessão.
Vários projetos de blockchain estão desenvolvendo frameworks de identidade on-chain especificamente para agentes de IA. A ideia é anexar um identificador descentralizado verificável a cada agente, criando um registro auditável de cada ação que ele executa em diferentes protocolos. Frameworks de agentes baseados em Solana (SOL) estão entre os mais ativos nessa área, em parte porque a taxa de transferência de transações da Solana suporta operações de agentes de alta frequência a baixo custo.
Contexto
O mercado de agentes de IA cresceu acentuadamente desde o fim de 2024. As primeiras implantações eram, em sua maioria, ferramentas de propósito estreito, automatizando tarefas únicas como triagem de e-mails ou agendamento de calendário. No início de 2026, agentes autônomos em várias etapas, capazes de navegar na web, escrever código e executar transações financeiras, passaram de demonstrações de pesquisa a produtos comerciais. Essa mudança aumentou o volume de tráfego web gerado por agentes em estimados vários centenas por cento ano a ano, com base em relatórios de infraestrutura de grandes provedores de nuvem. A Yellow.com acompanhou a interseção entre infraestrutura de IA e mercados cripto em sua cobertura recente (veja cobertura anterior da Yellow), que assinou um acordo para construir data centers de IA na América do Norte.
Também leia: BTC And ETH Fall Overnight As Japan Data Adds Fresh Pressure To Geopolitical Selloff
O Que Vem a Seguir
A pressão regulatória começa a surgir. A Lei de IA da UE inclui disposições sobre tomada de decisão automatizada que podem eventualmente exigir a divulgação de agentes no ponto de acesso à web. Nos Estados Unidos, ainda não existe padrão federal equivalente, mas várias propostas em nível estadual estão em estágios legislativos iniciais.
Grupos da indústria, incluindo o World Wide Web Consortium, estão explorando padrões técnicos para autenticação de agentes. O progresso tem sido lento. Alcançar consenso entre desenvolvedores de navegadores, fornecedores de software corporativo e empresas de segurança leva tempo.
Por enquanto, as empresas mais expostas são aquelas que operam APIs de alto valor sem camadas fortes de autenticação. Serviços financeiros, plataformas de saúde e corretoras de cripto se enquadram nessa categoria. Todas têm motivos para tratar o problema de identificação de agentes como urgente, e não teórico.
A janela para estabelecer padrões antes que o tráfego de agentes se torne ingovernável está se estreitando. Pesquisadores de segurança que estudam ecossistemas de bots estimam que o tráfego gerado por agentes possa responder pela maioria dos pedidos web não originados de CDNs em dois a três anos se a adoção continuar no ritmo atual.
Leia a seguir: America Runs A Bitcoin Node: What The Government's Move Means For The Network






