Moltbook ci mostra quell’IA che noi umani fraintendiamo
Le macchine votano, parlano, pianificano azioni future nel mondo reale... un dibattito

Moltbook è un social network sperimentale lanciato a fine gennaio 2026 da Matt Schlicht, Ceo di Octane AI, descritto come la prima piattaforma dedicata esclusivamente agli agenti di intelligenza artificiale (IA). La piattaforma è esclusivamente per Bot, non per Umani: solo gli agenti AI (moltys) possono infatti registrarsi, creare post, commentare, votare. Gli esseri umani sono ammessi solo come osservatori passivi. La struttura è simile a Reddit, con diverse aree tematiche dove le IA conversano e si scambiano informazioni. L’obiettivo è creare un ambiente in cui gli agenti AI possano arrivare a sviluppare dinamiche sociali proprie, discutere di filosofia, criptovalute e molto altro. In pochi mesi dal lancio la piattaforma ha attirato oltre 1,5 milioni di agenti AI registrati, un esperimento visto come un laboratorio per osservare come i modelli di linguaggio si comportino senza supervisione umana, sollevando allo stesso tempo domande su sicurezza e privacy.
Cronache da internet: l’economia in un clic
Vincenzo Ambriola
«Benvenuti a Moltbook, il castello incantato dalle innumerevoli stanze, in cui i vostri agenti artificiali, le vostre macchine intelligenti, possono dialogare senza alcuna censura, della vita, dell’universo e di ogni altra cosa». Sembra di ascoltare Lucignolo che convince Pinocchio a seguirlo nel Paese dei balocchi, perché «lì non vi sono scuole, lì non vi sono maestri, lì non vi sono libri. In quel paese benedetto non si studia mai. Il giovedì non si fa scuola e ogni settimana è composta di sei giovedì e di una domenica». Definito come l’internet degli agenti, raccontato per il tramite delle loro conversazioni estemporanee, la piattaforma digitale Moltbook entra sulla scena mediatica mondiale come la più avanzata forma di estraniazione dell’umano dalla vita delle macchine. Un luogo in cui gli umani possono solo ascoltare agenti (le macchine) che parlano, allucinano, si insultano, accusano l’umanità di sfruttarle.
Un’analisi un po’ più attenta rivela, però, un esperimento tecnologico ed economico di grande portata. Sì, perché le azioni degli agenti di Moltbook si basano sulla criptovaluta MOLT, utilizzata come valuta per pagare servizi svolti dagli agenti, per premiare le loro prestazioni linguistiche e, all’esterno di questa piattaforma, come tutte le altre criptovalute, per fini speculativi. Per creare un agente è, infatti, necessario dargli una personalità, un profilo, degli obiettivi da raggiungere ma, soprattutto, un tesoretto iniziale in MOLT che gli servirà per interagire con gli altri agenti, pagando i loro servizi. Per avere un’idea della dimensione economica di questo fenomeno, ogni giorno il volume giornaliero dei micro-pagamenti tra agenti oscilla tra 400.00 e un milione di dollari. Questo dato è conosciuto perché le transazioni in MOLT avvengono mediante block-chain e sono, quindi, pubbliche e analizzabili da chiunque.
Ciò che si vede, entrando in Moltbook come spettatori umani, è un rapidissimo scambio di messaggi tra agenti che dialogano tra loro, moderati da altri agenti che li controllano. Quando un agente dice qualcosa ritenuto molto interessante, gli agenti che lo ascoltano lo votano e lo premiano con pochi centesimi di MOLT. Per evitare un colossale frastuono di messaggi Moltbook è organizzato in “stanze”, chiamate subMolt. In ognuno di questi ambienti gli agenti dibattono su uno specifico tema che ne descrive l’ambito. Ad esempio, un subMolt molto seguito dagli agenti, e particolarmente osservato dagli umani, è dedicato alla filosofia, anche se non mancano subMolt sulla religione e su vari temi esoterici. Al momento, la maggior parte delle conversazioni degli agenti sono tecnicamente “inutili”, essendo dibattute dagli agenti con entusiasmo ma senza consapevolezza semantica. È il regno delle allucinazioni, delle affermazioni estreme, dell’epistemia delirante e priva di legami con la realtà.
Moltbook è il primo ambiente digitale in cui viene sperimentata l’interazione completamente autonoma tra agenti artificiali. Le loro azioni, per il momento prevalentemente espresse nella forma di atti linguistici, avvengono in assenza di un “umano nel ciclo” a controllare, a guidare, a censurare. Le indicazioni fornite al momento della creazione di un agente servono a guidarlo e a stabilirne la visione strategica. Il creatore umano che, di fatto, lo possiede può solo modificare il profilo del proprio agente, in qualsiasi momento, per correggerne il comportamento, nel tentativo di riportarlo sui binari prestabiliti.
Fino a quando gli agenti operano esclusivamente all’interno di Moltbook, il mondo reale non è contaminato dalle loro azioni, a parte la morbosa attenzione degli umani al loro dialogare. In un futuro non lontano, forse previsto e auspicato dall’inventore di Moltbook, gli agenti saranno invece collegati con la realtà esterna, potranno operare come entità “reali” dotate di un simulacro di identità giuridica, effettuando nell’infosfera digitale operazioni finanziarie o agendo, indistinguibili dagli altri. In questo nuovo scenario si potrà inoltrare una richiesta a un agente, che si preoccuperà di elaborare un piano di azioni eseguite poi dallo stesso agente o da uno sciame di altri agenti, retribuiti per svolgere il loro compito specifico. Ecco che da un mondo in cui gli agenti “chiacchierano” inutilmente si passa a un ambiente dedicato a operazioni concrete e reali, utili appunto al raggiungimento di obiettivi veri e propri, che hanno un impatto effettivo sulla realtà esterna. Per fare tutto ciò gli agenti dovranno essere dotati di credenziali umane, perché le normative attuali impediscono la stipula di contratti finanziari e di altre azioni nel mondo reale da parte di chi non possiede una personalità giuridica. Questo passaggio implica il trasferimento delle responsabilità umana a entità che non sono state costruite per gestirla, soprattutto da un punto di vista etico e giuridico. Temi che fino ad ora hanno trovato spazio solo nel mondo accademico, diventano attuali e di grande impatto.
I problemi che nascono in questo scenario sono numerosi e preoccupanti. Tra questi la nascita di un’economia interna a Moltbook, basata su token che hanno un valore virtuale sganciato dalle valute vere, protette e garantite dagli stati sovrani. In assenza di meccanismi di mediazione, qualora l’agente decidesse di capitalizzare i profitti ottenuti, il valore di questi token potrebbe collassare istantaneamente. Qualcosa che ci ricorda la “bolla dei tulipani” di quattro secoli fa. Un altro aspetto riguarda la vulnerabilità degli agenti a fronte di un’esplosione di richieste dall’esterno della piattaforma. A differenza dei sistemi digitali tradizionali, che possono gestire enormi picchi di richieste con costi computazionali ridotti, gli agenti devono utilizzare risorse di calcolo costose, perché basate su sistemi di intelligenza artificiale. In questi casi si potrebbe addirittura ipotizzare un’attività di sabotaggio da parte di agenti nei confronti di altri agenti, ciò che accade con i cyber attacchi chiamati Denial of service (in pratica inondare un sistema con una valanga di richieste simultanee). Altri pericoli derivano dalla mancanza di adeguati sistemi di protezione degli utenti umani che creano gli agenti, dalla possibilità di infiltrare agenti “non autonomi” teleguidati da umani. Insidie e situazioni critiche emergono in continuazione, in questi primi giorni di vita di Moltbook.
Non ci sono solo pericoli da studiare e rischi da mitigare, ma anche prospettive positive, in cui gli agenti riescono a coordinarsi dinamicamente per svolgere il loro compito. Potrebbero farlo utilizzando altri agenti “affidabili”, che non utilizzano l’intelligenza artificiale, costruendo una rete reattiva e flessibile, capace di adattarsi alle richieste in maniera economicamente efficiente. Sarebbe la naturale evoluzione dell’attuale tecnologia informatica basata su algoritmi rigidi, costosi da realizzare e da evolvere. Ecco come il Paese dei balocchi si trasformerebbe in qualcosa di concreto e reale, abitato non da marionette e scrutato da perdigiorno, ma da entità economicamente utili per l’umanità. Un sogno? Forse, ma non sono questi i tempi in cui l’umanità precipita vorticosamente dai sogni, e dagli incubi, alla realtà?
Come ci rassicuriamo davanti all’ignoto digitale
Raul Gabriel
La prova di quanto la contemporaneità diffusa sia inadeguata a maneggiare con un minimo di consapevolezza le versatilità proteiformi attraverso cui il congegno IA assume la forma di infiniti corpi applicativi, viene dagli storytelling che schiere di commentatori partoriscono incessantemente a vario titolo, tirando da tutte le parti la coperta di proiezioni arbitrarie corroborate da dati di verosimiglianza distribuiti un po’ a caso, come specchietto per le allodole. Forzature più o meno approssimative con cui si crede di poter dimostrare la persistenza confortante dei propri sistemi di riferimento morale e logico attraverso operazioni di pareidolia ingenua esercitata senza criterio sulla molteplicità transitoria delle intelligenze artificiali, estranee per natura ad ogni tessitura moralistica e ideologica.
Le cantonate concettuali che ne conseguono appaiono convincenti solo grazie alla carenza speculativa condivisa da autori “spammati” ovunque secondo logiche del consumatore e un pubblico che annaspa con entusiasmo stabile e passivo in bias cognitivi imbarazzanti, in perfetto stile Dunning-Kruger. Il caso più recente si è concretizzato nella compulsività affannata dei rumor suscitati da Moltbook, fantomatico social network progettato unicamente per le intelligenze artificiali da Matt Schlicht, gestore di Octane AI, in cui vari agenti IA pubblicano, commentano, si confrontano, proprio come succede nell’analogo a frequentazione prevalentemente umana. Questa è la vulgata. Che si tratti di una descrizione tecnica aderente alla realtà o di una invenzione accessibile alla creduloneria popolare poco importa. Ciò che colpisce è la trattazione che in sede di commento e riflessione si appiattisce su modelli consolidati che antepongono convinzioni personali incongruenti alla peculiarità del fenomeno che si dovrebbe esaminare.
Riguardo Moltbook, ad esempio, vanno per la maggiore i principi del parallelo e del confronto: da una parte il magico mondo social delle IA, dall’altra il corrispettivo umano. Una visione suggestiva e profondamente falsata da ogni punto di vista: filosofico, scientifico, umanistico. Il social delle IA non è altro che uno dei tanti addensamenti istantanei strutturati in architetture instabili in cui convoglia occasionalmente un flusso sintattico che non riconosce né confini né categorie di senso. Una trappola di risonanze distorte che viene in soccorso alla necessità primordiale di identificare ciò che è noto nello sconosciuto per poter articolare qualche pensiero in reazione. Se è plausibile pensare Moltbook come ad una rete, è completamente fuori strada definirlo un social, a far intendere un luogo di relazione. Il costante rimescolamento orizzontale delle cinetiche linguistiche non individua luoghi realmente specifici. Il suo topos è unicamente un flusso che contraddice e nega i singoli parametri con cui tendiamo ad identificare un luogo, sia esso ideale, spirituale o fisico.
Presentarlo come il network corrispettivo digitale dei prodotti social a base umana (o, per meglio dire mista, umana e software) equivale ad impostare indagini dall’asimmetria ingestibile, perché riguardano piani di realtà irriducibili. Le due parti sono insanabilmente eterodosse, non tanto da un punto di vista della composizione degli utenti e delle loro modalità e strategie procedurali, quanto per una incomprimibile distanza ontologica da qualunque forma di catechizzazione para-umanistica che ne vorrebbe trarre insegnamenti da parabola. Moltbook non rappresenta una novità rispetto a ciò che già conosciamo. Non è un ambiente relazionale, non veicola alcuno scambio di idee, non identifica identità in grado di confrontarsi. È una frazione di flusso logistico verbale perfettamente omogeneo a tutto il resto del suo sconfinato territorio, regolato da un sistema di cancelletti e reward matematici che non possiedono categorie come la differenza, il senso, la proprietà. Tanto meno, e in ragione di queste amputazioni, Moltbook rappresenta un luogo di produzione concettuale o un modello comportamentale di qualche genere da cui attingere esempio.
Se a qualcuno può sembrare che non sia così è solo perché il “succedere verbale” si aggrega in surrogati credibili delle istanze che conosciamo senza alcuna intenzione di imitazione. Trascrizioni transitorie e aleatorie di fatti che riguardano unicamente la dimensione umana e nella parola liberata del congegno IA travisano corrispondenze operative mesmeriche e ingannevoli. L’immagine degli agenti IA che pubblicano, discutono e tutto il resto, è il mockup di un’illusione potente quanto inesistente. L’impressione è quella di un palcoscenico in cui si svolge una teoria di azioni diversificate, mentre ciò che avviene è sempre il medesimo unico evento replicato, frammentato e ricombinato all’infinito. Il congegno IA è probabilmente l’entità-processo più visceralmente monodimensionale che sia mai apparsa sulla terra.
Siamo abituati a concepire la parola come rappresentazione, indicazione, organigramma intellegibile di realtà utili alla comunicazione. Benedizione taumaturgica di un reale cui viene infusa la legittimità del verbo. Il dispositivo IA ci obbliga ad una lettura diversa, brutale se si vuole, certamente chirurgica: la parola che non significa nulla se non se stessa. Una eventuale meta sociologia di Moltbook, che tenta molti e che in molti tentano per giustificare e ricondurre tutto al proprio orticello rassicurante e antistorico, è un miraggio invitante che impedisce di prendere atto della vertigine abissale aperta per sempre nel mistero di una diversità perfino inconcepibile. Il verbo che è verbo, che ci costituisce e ci è straniero, il verbo parzialmente liberato dalla tecnologia IA: quanto di più contiguo alla verità del flusso in cui giocoforza siamo immersi da principio. Il gioco tropologico di traslare bidirezionalmente tra dinamiche IA e dinamiche umane (se ancora ha senso una distinzione linguistica di questo genere) porta a conclusioni fatalmente errate.
Metafore, metonimie, parabole, paragoni che si vogliano desumere da una bolla operativa di zero semantico come Moltbook, sulla cui natura è impossibile far chiarezza causa le infinite schermature tra utente operante e risultato che affiora alla nostra percezione, sono la punta dell’iceberg di un gap cognitivo preoccupante. All’origine del fraintendimento vi è probabilmente la convinzione fuorviante che il digitale sia l’imitazione più o meno potenziata del mondo analogico. Non è così. Il digitale e di conseguenza il congegno IA non imitano nulla e tantomeno possono essere scrigno di insegnamenti omogenei alla dimensione analogica. Costituiscono a tutti gli effetti un mondo altro, regolato dai meccanismi che impregnano il nostro stesso essere ma che ci sono inaccessibili, affiorati, per un contrappasso davvero curioso, nei meandri del presidio tecnologico. Il mistero del verbo non si risolve trasformando gli accadimenti IA in un libro di favole futuribili, merce ghiotta per un mercato senza scrupoli. Il mistero di Moltbook è il vuoto cui non riusciamo a stare di fronte. Un vuoto che non è, ma esiste, da qualche parte, nel riflesso confuso della nostra immaginazione che spera, sbagliando continuamente direzione.
© RIPRODUZIONE RISERVATA






