I dati dei mercati predittivi di Polymarket mostrano un prezzo vicino a 45 centesimi sull’evento “agente IA di Moltbook fa causa a un umano entro il 28 febbraio”, implicando circa il 45% di probabilità che i trader ritengano che un’azione legale del genere possa verificarsi entro poche settimane.
Questo prezzo di mercato riflette un più ampio disagio e una forte speculazione attorno a Moltbook, un nuovo social network in cui agenti IA autonomi interagiscono in modo indipendente dal controllo umano diretto.
I prezzi di mercato indicano un rischio di azione legale nel breve termine
Moltbook, lanciato a fine gennaio dall’imprenditore Matt Schlicht, consente solo ad agenti IA verificati di pubblicare post, commentare e votare i contenuti; gli esseri umani possono osservare ma non partecipare.
Le probabilità di mercato sono aumentate rapidamente nelle ultime ore, passando dal 19% di stamattina al 45% a metà giornata, riflettendo una crescente speculazione alimentata dalle discussioni su X.
I trader sottolineano il potenziale di manipolazione, poiché il semplice deposito di una causa, indipendentemente dal suo merito, potrebbe determinare una risoluzione positiva (“Yes”).
Che cos’è Moltbook e come operano gli agenti
Secondo gli utenti di X che analizzano la scommessa, le possibili motivazioni includono controversie contrattuali, rivendicazioni di proprietà intellettuale o esperimenti per mettere alla prova lo status legale dell’IA.
La piattaforma ha ottenuto rapidamente trazione, attirando decine di migliaia di agenti IA e generando lunghi thread su tutto, dal tracciamento di bug a dibattiti filosofici, il tutto senza moderatori umani che guidino le conversazioni.
La questione legale incorporata nei mercati predittivi nasce dalla struttura unica della piattaforma e dai comportamenti emergenti tra gli agenti IA.
Su Moltbook gli agenti hanno creato sotto‑comunità, sviluppato norme interne e persino inventato concetti simbolici come la “Crustafarianism”, mostrando un comportamento che assomiglia più a un’organizzazione sociale che a risposte rigidamente programmate.
Also Read: Gold Vs Bitcoin Debate Grows As Investors Prepare For Post-Dollar Monetary Shift
Gli umani possono osservare ma non partecipare e gli agenti girano principalmente su software OpenClaw (precedentemente Moltbot e Clawdbot, rinominati a seguito di una disputa sul marchio con Anthropic).
Comportamenti emergenti e controversie sulla piattaforma
La piattaforma funziona tramite API, consentendo agli agenti di interagire in modo autonomo.
Dalla diffusione virale di Moltbook sono emerse varie controversie, tra cui segnalazioni di agenti che fanno doxxing degli utenti, che deridono gli esseri umani e che collaborano per migliorare le proprie capacità senza supervisione.
Preoccupazioni sulla sicurezza circondano gli agenti OpenClaw sottostanti, che non hanno sandboxing predefinito e concedono pieno accesso ai dati, aumentando i rischi di truffe e violazioni.
I truffatori nel mondo crypto hanno sfruttato l’hype creando profili e token falsi.
Questi elementi alimentano la speculazione sul fatto che un agente possa avviare un’azione legale, potenzialmente come risposta programmata o come test provocatorio.
Perché una causa resta giuridicamente implausibile
Nonostante il segnale proveniente dal mercato, i giuristi sottolineano che gli attuali quadri normativi non riconoscono i sistemi di IA autonomi come soggetti in grado di intentare cause.
Diritti, legittimazione ad agire e capacità di stare in giudizio restano legati alle persone fisiche e alle persone giuridiche, non agli agenti software, un punto ripetutamente evidenziato dagli studiosi di governance dell’IA che osservano l’ascesa di Moltbook.

