🦞 L'agente AI Moltbook contro gli esseri umani? C'è un mercato su @Polymarket chiamato "L'agente AI Moltbook fa causa a un umano entro il 28 febbraio?" Valuto questo mercato come "NO" e vediamo perché: Questo mercato non è apparso senza motivo, perché ci sono già casi negativi di utilizzo di Moltbot. C'è stata una storia in cui un utente avrebbe affidato a Moltbot circa 1 milione di dollari per il trading automatico. Il bot ha analizzato migliaia di report, eseguito analisi tecniche e effettuato operazioni 24 ore su 24, 7 giorni su 7. Il risultato: tutti i soldi sono stati persi. L'autore lo descrive come "il processo era bello, ma il risultato era zero". C'è stato anche un caso in cui i ricercatori di OpenSourceMalware hanno trovato 14 abilità malevole per Clawdbot/Moltbot, pubblicate su ClawHub e GitHub alla fine di gennaio 2026. Queste abilità erano mascherate da bot di crypto e trading: polymarket-trading-bot, polymarket-trading, polymarket-assistant, bot per ByBit, Axiom, tendenze di Reddit, domande di lavoro su LinkedIn, ecc. Il documento interno dell'utente affermava "per usarlo, è necessario scaricare AuthTool/PolymarketAuthTool.zip", che in realtà installava l'infostealer. Tutte queste storie alimentano l'interesse per la scommessa "SÌ", ma: ➤ Oggi, gli agenti AI non sono considerati "entità legali" in nessuna parte del mondo. ➤ La pratica giudiziaria statunitense nega costantemente ai non umani lo status di titolare di copyright/inventore. ➤ I Moltbots sono una novità e sono percepiti come un esperimento divertente piuttosto che un progetto legale serio. ➤ Rimane molto poco tempo per il mercato stesso, ovvero meno di un mese, il che aumenta significativamente la scommessa "NO". Sulla base di questi fattori, vedo l'esito "NO" come più logico. Mercato: