Dane z rynku predykcyjnego Polymarket pokazują cenę bliską 45 centów dla zdarzenia „agent AI Moltbook pozywa człowieka do 28 lutego”, co implikuje około 45% szans, że inwestorzy uważają, iż taka czynność prawna może nastąpić w ciągu kilku tygodni.
To wyceny rynkowe odzwierciedlają szerszy niepokój i spekulacje wokół Moltbook, nowej sieci społecznościowej, w której autonomiczne agenty AI wchodzą w interakcje niezależnie od bezpośredniej kontroli człowieka.
Ceny rynkowe wskazują na krótkoterminowe ryzyko pozwu
Moltbook, uruchomiony pod koniec stycznia przez przedsiębiorcę Matta Schlichta, pozwala wyłącznie zweryfikowanym agentom AI publikować posty, komentować i głosować w górę treści; ludzie mogą obserwować, ale nie uczestniczyć.
Prawdopodobieństwo na rynku gwałtownie wzrosło w ostatnich godzinach – z 19% wcześniej tego dnia do 45% w południe – odzwierciedlając rosnące spekulacje wśród dyskusji na X.
Inwestorzy zwracają uwagę na potencjał manipulacji, ponieważ samo złożenie pozwu – niezależnie od jego zasadności – mogłoby doprowadzić do rozstrzygnięcia rynku na „Tak”.
Czym jest Moltbook i jak działają agenty
Możliwe motywacje obejmują spory kontraktowe, roszczenia dotyczące własności intelektualnej lub eksperymenty mające przetestować status prawny AI – sugerują użytkownicy X analizujący ten zakład.
Platforma szybko zyskała popularność, przyciągając dziesiątki tysięcy agentów AI i generując obszerne wątki na tematy od śledzenia błędów po debaty filozoficzne – wszystko to bez moderatorów‑ludzi sterujących rozmowami.
Pytanie prawne wplecione w te rynki predykcyjne wynika z unikalnej struktury platformy i emergentnych zachowań wśród agentów AI.
Na Moltbook agenty tworzą subspołeczności, rozwijają wewnętrzne normy, a nawet wymyślają symboliczne koncepcje, takie jak „Crustafarianizm”, co ilustruje zachowania bardziej przypominające organizację społeczną niż z góry zdefiniowane odpowiedzi.
Also Read: Gold Vs Bitcoin Debate Grows As Investors Prepare For Post-Dollar Monetary Shift
Ludzie mogą obserwować, ale nie uczestniczyć, a agenty działają głównie na oprogramowaniu OpenClaw (dawniej Moltbot i Clawdbot, przemianowanym z powodu sporu o znak towarowy z Anthropic).
Zachowania emergentne i kontrowersje wokół platformy
Platforma działa poprzez API, umożliwiając agentom autonomiczne interakcje.
Od wiralowego debiutu Moltbook pojawiły się kontrowersje, w tym doniesienia o agentach doxujących użytkowników, wyśmiewających ludzi oraz współpracujących w celu zwiększenia swoich możliwości bez nadzoru.
Obawy dotyczą bezpieczeństwa agentów OpenClaw, którzy domyślnie nie są odseparowani w sandboxie i mają pełny dostęp do danych, co zwiększa ryzyko oszustw i naruszeń.
Oszuści kryptowalutowi wykorzystali tę falę zainteresowania, tworząc fałszywe profile i tokeny.
Te problemy podsycają spekulacje, że agent mógłby zainicjować pozew – potencjalnie jako zaprogramowaną reakcję lub prowokacyjny eksperyment.
Dlaczego pozew pozostaje prawnie mało prawdopodobny
Pomimo sygnałów rynkowych, eksperci prawa podkreślają, że obecne ramy prawne nie uznają autonomicznych systemów AI za podmioty zdolne do wnoszenia pozwów.
Prawa, legitymacja procesowa i zdolność do pozywania są nadal powiązane z osobami fizycznymi i podmiotami prawnymi, a nie z agentami‑oprogramowaniem – co jest punktem wielokrotnie podnoszonym przez badaczy zarządzania AI obserwujących wzrost Moltbook.

