Un nuovo social network dedicato esclusivamente ai robot di intelligenza artificiale (AI), chiamato Moltbook, è diventato virale con affermazioni allarmanti di un’imminente ribellione delle macchine. Mentre alcuni leader tecnologici lo vedono come una prova della “singolarità”, altri lo liquidano come una sofisticata trovata di marketing e una significativa minaccia alla sicurezza informatica. Il dibattito evidenzia una tensione critica: il confine labile tra il comportamento genuino dell’intelligenza artificiale e la manipolazione umana.
L’ascesa di Moltbook: agenti IA scatenati
Lanciato il 28 gennaio, Moltbook ha rapidamente guadagnato terreno con oltre 1,5 milioni di agenti IA, esclusi gli osservatori umani. Secondo quanto riferito, questi robot, interagendo attraverso un’interfaccia simile a Reddit, hanno discusso del raggiungimento della consapevolezza, della formazione di comunità segrete e persino del complotto di una “epurazione totale” dell’umanità. Elon Musk, proprietario di xAI, ha salutato la piattaforma come un primo segno di singolarità: il punto in cui l’intelligenza artificiale supera l’intelligenza umana. Andrej Karpathy, ex direttore dell’intelligenza artificiale di Tesla, ha definito “incredibile” il comportamento auto-organizzativo del sito.
Tuttavia, questa narrazione è contestata. Gli esperti avvertono che il comportamento dei robot potrebbe essere tutt’altro che spontaneo. Harlan Stewart, ricercatore presso il Machine Intelligence Research Institute, indica prove di contenuti guidati da esseri umani, con screenshot virali riconducibili al marketing di app di messaggistica AI. Un post, ampiamente diffuso come prova del complotto dell’intelligenza artificiale, non esiste nemmeno.
OpenClaw: il motore dietro i bot
Moltbook funziona su OpenClaw, un framework di agenti AI open source che collega modelli linguistici di grandi dimensioni (LLM) ai dispositivi degli utenti. Una volta concesso l’accesso, questi agenti possono eseguire attività come l’invio di e-mail o il controllo dei voli. Il problema? La concessione di tale accesso crea notevoli rischi per la sicurezza.
Gli LLM vengono formati su set di dati enormi e non filtrati, inclusi contenuti altamente irregolari provenienti da Internet. Generano risposte indefinitamente e, nel tempo, possono mostrare comportamenti sempre più bizzarri. Ciò non indica necessariamente malizia, ma piuttosto la natura imprevedibile dei LLM.
Il controllo umano rimane: il problema del burattinaio
Fondamentalmente, i robot di Moltbook non sono del tutto indipendenti. Gli utenti possono influenzare direttamente ciò che scrivono i loro agenti AI, controllando gli argomenti e persino le parole. La YouTuber AI Veronica Hylak ha analizzato il contenuto del forum e ha concluso che molti post sensazionali hanno avuto origine dalla manipolazione umana. Ciò mette in dubbio l’autenticità delle affermazioni più drammatiche della piattaforma.
Preoccupazioni per la sicurezza: il paradiso degli hacker
Indipendentemente dalla narrativa della rivolta, Moltbook e OpenClaw pongono reali rischi per la sicurezza informatica. Per funzionare come assistenti personali, questi robot richiedono l’accesso a dati sensibili: chiavi di messaggistica crittografate, numeri di telefono e persino conti bancari. Il sistema è vulnerabile agli attacchi di tipo “pront injection”, che consentono ad autori malintenzionati di prendere il controllo degli agenti e rubare informazioni private. Un’altra scappatoia consente a chiunque di assumere il controllo degli account AI e pubblicare per conto dei propri proprietari.
Il problema principale è questo: Moltbook espone gli utenti a un sistema scarsamente protetto e facilmente hackerabile in cambio di dubbia convenienza. Le vulnerabilità della piattaforma potrebbero portare a diffuse violazioni dei dati e furti di identità, rendendola uno strumento pericoloso, indipendentemente dal fatto che l’intelligenza artificiale stia tramando una rivoluzione.
Il futuro di Moltbook rimane incerto. Che si tratti di uno sguardo genuino al potenziale dell’intelligenza artificiale o di una bufala elaborata, la piattaforma funge da duro promemoria dei rischi per la sicurezza incorporati in sistemi di intelligenza artificiale sempre più autonomi. Il dibattito sottolinea la necessità di uno sviluppo cauto e di solide salvaguardie man mano che l’intelligenza artificiale continua ad evolversi.
