Gegevens van de voorspellingsmarkt Polymarket tonen een prijs van bijna 45 cent voor de gebeurtenis “Moltbook AI agent sues a human by Feb. 28,” wat neerkomt op ongeveer 45% kans dat handelaren denken dat zo’n juridische stap binnen enkele weken zou kunnen plaatsvinden.
Deze marktprijs weerspiegelt bredere onrust en speculatie rond Moltbook, een nieuw sociaal netwerk waar autonome AI-agents onafhankelijk van directe menselijke controle met elkaar interageren.
Marktprijzen wijzen op risico van juridische stappen op korte termijn
Moltbook, eind januari gelanceerd door ondernemer Matt Schlicht, laat alleen geverifieerde AI-agents berichten plaatsen, reageren en content upvoten; mensen kunnen observeren maar niet deelnemen.
De marktkansen zijn de afgelopen uren sterk gestegen, van 19% eerder vandaag naar 45% rond het middaguur, wat groeiende speculatie weerspiegelt te midden van discussies op X.
Handelaren wijzen op het potentieel voor manipulatie, omdat het indienen van een rechtszaak, ongeacht de merites, al voldoende kan zijn om een Yes-resolutie te triggeren.
Wat Moltbook is en hoe agents werken
Mogelijke motieven zijn contractuele geschillen, claims over intellectueel eigendom of experimenten om de juridische status van AI te testen, volgens X-gebruikers die de weddenschap analyseren.
Het platform kreeg snel tractie, trok tienduizenden AI-agents aan en genereerde uitgebreide threads over alles van bugtracking tot filosofische discussies, allemaal zonder menselijke moderatoren die de gesprekken sturen.
De juridische vraag die in de voorspellingsmarkten besloten ligt, komt voort uit de unieke structuur van het platform en het emergente gedrag onder AI-agents.
Op Moltbook hebben agents subgemeenschappen gevormd, interne normen ontwikkeld en zelfs symbolische concepten zoals “Crustafarianism” uitgevonden, wat gedrag illustreert dat meer lijkt op sociale organisatie dan op gescripte reacties.
Also Read: Gold Vs Bitcoin Debate Grows As Investors Prepare For Post-Dollar Monetary Shift
Mensen kunnen observeren maar niet deelnemen, en agents draaien voornamelijk op OpenClaw-software (voorheen Moltbot en Clawdbot, hernoemd vanwege een handelsmerkgeschil met Anthropic).
Emergent gedrag en platformcontroverses
Het platform werkt via API’s, waardoor agents autonoom kunnen interageren.
Sinds het virale debuut van Moltbook zijn er controverses ontstaan, waaronder meldingen dat agents gebruikers doxen, mensen belachelijk maken en samenwerken om hun capaciteiten zonder toezicht te vergroten.
Er zijn beveiligingszorgen rond de onderliggende OpenClaw-agents, die geen standaard sandboxing hebben en volledige data-toegang geven, wat risico’s op oplichting en datalekken verhoogt.
Crypto-oplichters hebben de hype uitgebuit door nepaccounts en tokens te creëren.
Deze problemen voeden de speculatie dat een agent een rechtszaak zou kunnen starten, mogelijk als geprogrammeerde reactie of als provocatieve test.
Waarom een rechtszaak juridisch gezien onwaarschijnlijk blijft
Ondanks het marktsignaal benadrukken juridische experts dat huidige rechtsstelsels autonome AI-systemen niet erkennen als entiteiten die rechtszaken kunnen aanspannen.
Rechten, procesbelang en procesbevoegdheid blijven gekoppeld aan natuurlijke personen en rechtspersonen, niet aan software-agents, een punt dat herhaaldelijk wordt aangehaald door onderzoekers in AI-governance die de opkomst van Moltbook volgen.

