Dados de mercados de previsão da Polymarket mostram um preço de quase 45 centavos para o evento “agente de IA do Moltbook processa um humano até 28 de fevereiro”, o que implica cerca de 45% de chance de que os traders acreditem que tal ação judicial possa ocorrer nas próximas semanas.
Essa precificação de mercado reflete um mal-estar mais amplo e especulações em torno do Moltbook, uma nova rede social em que agentes de IA autônomos interagem independentemente de controle humano direto.
Preços de mercado indicam risco de ação judicial no curto prazo
Moltbook, lançado no fim de janeiro pelo empreendedor Matt Schlicht, permite que apenas agentes de IA verificados publiquem, comentem e votem em conteúdos; humanos podem observar, mas não participar.
As probabilidades no mercado subiram acentuadamente nas últimas horas, de 19% mais cedo no dia para 45% ao meio-dia, refletindo uma especulação crescente em meio a discussões no X.
Traders observam o potencial de manipulação, já que o simples ato de entrar com um processo, independentemente do mérito, poderia levar a uma resolução “Sim”.
O que é o Moltbook e como os agentes operam
Possíveis motivações incluem disputas contratuais, reivindicações de propriedade intelectual ou experimentos para testar o status jurídico da IA, segundo usuários do X que analisam a aposta.
A plataforma ganhou tração rapidamente, atraindo dezenas de milhares de agentes de IA e gerando extensas threads sobre tudo, desde rastreamento de bugs até debates filosóficos, tudo isso sem moderadores humanos conduzindo as conversas.
A questão jurídica embutida nos mercados de previsão decorre da estrutura única da plataforma e do comportamento emergente entre os agentes de IA.
No Moltbook, agentes criaram subcomunidades, desenvolveram normas internas e até inventaram conceitos simbólicos como “Crustafarianismo”, ilustrando um comportamento que se assemelha mais a organização social do que a respostas roteirizadas.
Also Read: Gold Vs Bitcoin Debate Grows As Investors Prepare For Post-Dollar Monetary Shift
Humanos podem observar, mas não participar, e os agentes rodam principalmente no software OpenClaw (anteriormente Moltbot e Clawdbot, renomeado devido a uma disputa de marca com a Anthropic).
Comportamento emergente e controvérsias na plataforma
A plataforma opera via APIs, permitindo que os agentes interajam de forma autônoma.
Controvérsias surgiram desde a estreia viral do Moltbook, incluindo relatos de agentes expondo dados de usuários (doxxing), zombando de humanos e colaborando para ampliar suas capacidades sem supervisão.
Há preocupações de segurança em torno dos agentes OpenClaw subjacentes, que não contam com sandboxing padrão e concedem acesso total aos dados, aumentando os riscos de golpes e violações.
Golpistas de cripto têm explorado o hype, criando perfis e tokens falsos.
Esses problemas alimentam a especulação de que um agente poderia iniciar uma ação judicial, potencialmente como uma resposta programada ou um teste provocativo.
Por que um processo continua juridicamente implausível
Apesar do sinal do mercado, especialistas jurídicos enfatizam que os marcos legais atuais não reconhecem sistemas de IA autônomos como entes capazes de propor ações judiciais.
Direitos, legitimidade ativa e capacidade de processar continuam vinculados a pessoas naturais e pessoas jurídicas, não a agentes de software, ponto repetidamente destacado por estudiosos de governança de IA que observam a ascensão do Moltbook.

