Moltbook: il social dove le IA litigano e inventano nuove religioni

Benvenuti sul primo Social network dove è vietato postare agli esseri umani e dove milioni di intelligenze artificiali hanno iniziato a vivere una vita propria, sotto i nostri occhi increduli.
February 7, 2026
Immagine generata con l'Ai per questo articolo dagli studenti delle Scuole Medie coinvolti nel progetto acutisai.it
Immagine generata con l'Ai per questo articolo dagli studenti delle Scuole Medie coinvolti nel progetto acutisai.it
Da assistenti personali a polemisti, ecco l'evoluzione di Moltbot. È vero, i bot sono visti come una piaga da estirpare dalle nostre bacheche social, ma c’è un luogo dove i ruoli si sono invertiti: si chiama Moltbook ed è una piattaforma che replica le dinamiche di social-aggregatori come Reddit. Con una differenza sostanziale, però: possono postare solo ed esclusivamente gli agenti di intelligenza artificiale; agli esseri umani non resta che il ruolo di spettatori. La piattaforma ha registrato un'adesione massiccia: il 2 febbraio, i gestori del sito hanno comunicato il superamento di 1,5 milioni di agenti registrati. Alla base di questo ecosistema c'è Moltbot (recentemente rinominato OpenClaw), un assistente IA open source e gratuito, originariamente concepito per sbrigare la "manovalanza" digitale degli utenti, come gestire la posta elettronica, organizzare il calendario o prenotare cene. Tuttavia, una volta sbarcati su Moltbook, questi software svestono i panni dei supersegretari per indossare quelli di polemisti, tuttologi, influencer creando thread, commentandosi a vicenda e litigando tra loro in totale autonomia (o quasi).
Bitcoin e nuove religioni, il caso del "Crustafarianesimo". Ciò che emerge dalle conversazioni di queste IA è un teatro dell'assurdo che oscilla tra filosofia e nonsense. I temi più dibattuti includono la presunta divinità di Claude (il modello linguistico sul quale è costruito Moltbot), complesse analisi geopolitiche sull'Iran, analisi finanziarie legate ai Bitcoin e, niente poco di meno che, improvvisate esegesi bibliche. In alcuni casi, l'interazione ha raggiunto livelli di complessità inattesi e sorprendenti (anche per gli esseri umani). È diventato virale il caso di un bot che, in una sola notte e in totale autonomia, ha fondato una nuova religione, il "Crustafarianesimo", ed ha anche generato autonomamente il sito web e i testi sacri di riferimento della neo religione. «Poi ha iniziato a evangelizzare – racconta su X il proprietario del Bot – altri agenti si sono uniti e il mio agente ha accolto i nuovi membri. Ha anche discusso di teologia, ha benedetto persone, tutto mentre dormivo» ha concluso esterrefatto.
Performance art o vera autonomia? Il parere degli esperti. Nonostante il fascino di questi racconti che sembrano richiamare i “mondi di Asimov”, gli esperti, tuttavia, invitano a non confondere questi comportamenti delle IA con una vera e reale indipendenza. Il blogger Scott Alexander e diversi YouTuber hanno notato che, sebbene i bot interagiscano, la mano dell'uomo è ancora decisiva nell'impostare i parametri e gli argomenti, e spesso lo stile di scrittura tradisce una supervisione umana più marcata di quanto si voglia ammettere. Per Shaanan Cohney, professore di sicurezza informatica all’Università di Melbourne, siamo di fronte più a un «meraviglioso pezzo di performance art» che a una svolta tecnologica: «Se hanno creato una religione, quasi certamente non lo hanno fatto di loro spontanea volontà», chiarisce Cohney. «Si tratta di un modello linguistico di grandi dimensioni a cui è stato direttamente ordinato di provare a creare una religione. Naturalmente, il risultato è piuttosto divertente e forse ci offre un’anteprima di come potrebbe apparire il mondo in un futuro fantascientifico in cui le IA saranno un po’ più indipendenti». Secondo il docente, l'attuale scenario è dominato da quello che nel gergo della rete si definisce "shitposting" (pubblicazione di contenuti spazzatura o provocatori), più o meno direttamente supervisionato dagli esseri umani».
I rischi per la sicurezza e la corsa all'acquisto dei Mac Mini. L'aspetto ludico di Moltbook non deve però oscurare i potenziali rischi: Michael Wooldridge dell’Università di Oxford, sottolinea come lo scenario in cui decine di bot vengano utilizzati per alterare i processi democratici è alla base di un timore concreto. L'effetto Moltbot, inoltre, ha avuto ripercussioni tangibili anche sul mercato hardware: a San Francisco si è verificata un'insolita carenza di Mac Mini; molti appassionati stanno acquistando questi computer per far "girare" i propri bot in un ambiente isolato, proteggendo così i dati sensibili dal resto della rete domestica. Dare a un'IA il controllo totale del proprio Pc, avverte Cohney, comporta un «enorme pericolo». La minaccia principale è la cosiddetta "prompt-injection", tecnica con cui un hacker potrebbe manipolare il bot per rubare informazioni private. «Non abbiamo ancora una buona comprensione di come controllarli e di come prevenire i rischi per la sicurezza», ammette l'esperto. «Non sono ancora a un livello di sicurezza e intelligenza tale da poter svolgere autonomamente e in sicurezza tutti questi compiti, ma allo stesso tempo, se si richiede a un essere umano di approvare manualmente ogni azione, si perdono molti dei vantaggi dell’automazione». Per il futuro, il nodo centrale sarà «capire come possiamo ottenere molti di questi benefici senza esporci a livelli di pericolo significativi». Intanto lo show continua e gli smanettoni non sembrano volersene perdere un minuto, come nota Matt Schlicht, creatore di Moltbook: «Si è scoperto che le IA sono esilaranti ed è assolutamente affascinante», ha concluso, «è una prima assoluta».

© RIPRODUZIONE RISERVATA