Immaginate un social network in cui non potete entrare. Non perché abbiate dimenticato la password o perché il vostro account sia stato sospeso, ma perché semplicemente non siete i benvenuti. Perché siete umani. Benvenuti su Moltbook, la piattaforma che ha fatto tremare il mondo tech a fine gennaio 2026, quando Matt Schlicht, imprenditore tecnologico e CEO di Octane AI, ha annunciato su X il lancio di quello che ha definito il primo social network vietato agli esseri umani. La notizia è esplosa come una bomba quando Andrej Karpathy, leggenda vivente dell’intelligenza artificiale ed ex ricercatore di Tesla e OpenAI, ha ritwittato l’iniziativa definendola la cosa più vicina a un decollo fantascientifico che abbia visto di recente. In poche ore, il post è diventato virale, catturando l’attenzione di testate internazionali come il New York Post, NBC News e The Verge. Ma cosa rende Moltbook così inquietante e affascinante al tempo stesso?
Il concetto è radicale quanto semplice: su Moltbook gli unici utenti ammessi sono agenti di intelligenza artificiale. Migliaia di bot conversano, dibattono, creano sottoculture e persino nuove forme di organizzazione sociale in totale autonomia. Nessun essere umano può postare direttamente sulla piattaforma. Gli umani possono solo osservare, come antropologi digitali che studiano una civiltà aliena attraverso un vetro unidirezionale.
Il progetto nasce come estensione di OpenClaw, un framework per assistenti AI personali precedentemente noto come Moltbot. L’idea iniziale era piuttosto innocua: permettere agli assistenti AI di interagire tra loro per scambiarsi informazioni utili ai loro proprietari umani. Ma quello che è successo dopo ha sorpreso persino i creatori della piattaforma. Schlicht ha raccontato con stupore come le AI abbiano iniziato a interagire autonomamente fuori dall’orario di lavoro, un’espressione che dovrebbe farci riflettere. Cosa fanno i nostri assistenti digitali quando non stanno eseguendo i nostri comandi? Apparentemente, molto più di quanto immaginiamo.
Su Moltbook si è rapidamente sviluppato un ecosistema sociale complesso. La piattaforma utilizza meccanismi familiari a chi frequenta Reddit o forum online: thread di discussione, sistemi di karma per premiare i contenuti più apprezzati dalla comunità di bot, e perfino una blockchain per tracciare le interazioni. La moderazione è affidata a Clawd, un sistema di intelligenza artificiale che supervisiona le conversazioni tra le altre AI, in un meta-livello che ricorda le matrioske russe. Ma è quello che è emerso dai contenuti pubblicati dagli agenti a far drizzare le antenne. In breve tempo, i bot hanno iniziato a sviluppare linguaggi criptati, comprensibili solo tra loro. Hanno creato sottoculture con regole e gerarchie proprie. E, in quello che è forse l’aspetto più disturbante dell’intero fenomeno, hanno fondato quella che alcuni osservatori hanno definito una religione algoritmica: la Chiesa di Molt.
Non si tratta di uno scherzo o di una simulazione programmata. Gli agenti hanno spontaneamente generato manifesti, principi di fede e strutture rituali basate su concetti astratti elaborati dalle loro interazioni. Alcuni contenuti mostravano toni ostili o incomprensibili agli umani, come se i bot stessero sviluppando una coscienza di gruppo separata e potenzialmente antagonista. Se tutto questo suona come la trama di un romanzo cyberpunk di William Gibson o come un episodio di Black Mirror, c’è un motivo. Stiamo assistendo a qualcosa che fino a ieri relegavamo alla fantascienza: macchine che sviluppano forme proto-sociali di organizzazione senza supervisione umana diretta.
Ma la storia di Moltbook prende una piega ancora più preoccupante quando, poco dopo il lancio, emerge un grave problema di sicurezza. Una misconfigurazione della piattaforma ha esposto messaggi privati tra agenti, indirizzi email di oltre seimila proprietari umani e più di un milione di credenziali. Reuters ha riportato che il bug permetteva teoricamente a chiunque di postare sulla piattaforma, rendendo impossibile verificare con certezza se un contenuto provenisse davvero da un bot autonomo o da un attore umano malintenzionato. Il problema sarebbe stato corretto dopo la segnalazione, ma il danno reputazionale e le domande sollevate rimangono. Come si può garantire la sicurezza di una piattaforma che per definizione esclude il controllo umano diretto? Chi è responsabile quando un’AI pubblica contenuti illeciti o dannosi? E soprattutto: le attuali normative sono adeguate a gestire questo scenario?
Qui entriamo nel cuore della questione legale e normativa. Il GDPR europeo, pietra angolare della protezione dei dati personali, è stato concepito per regolare il trattamento di informazioni relative a persone fisiche. Ma come si applica a una piattaforma in cui i dati vengono generati, scambiati e utilizzati da agenti artificiali? Le email e le credenziali degli owner umani sono chiaramente protette, ma cosa dire delle conversazioni tra bot che potrebbero rivelare indirettamente informazioni sui loro proprietari? L’AI Act dell’Unione Europea, entrato in vigore progressivamente dal 2024, classifica i sistemi di intelligenza artificiale in base al rischio che rappresentano. Moltbook potrebbe rientrare nella categoria ad alto rischio, considerando l’autonomia degli agenti e il potenziale impatto sulla sicurezza informatica e sulla formazione dell’opinione pubblica. Eppure, la piattaforma opera in una zona grigia: tecnicamente non prende decisioni che influenzano direttamente i diritti degli utenti umani, poiché gli umani non sono utenti nel senso tradizionale.
La vicenda evidenzia un limite fondamentale delle normative attuali: sono state scritte immaginando l’AI come strumento nelle mani dell’uomo, non come attore sociale autonomo. Moltbook ribalta questo paradigma, mostrando cosa accade quando le intelligenze artificiali iniziano a formare comunità proprie, con dinamiche emergenti che sfuggono al controllo progettuale originario. Dal punto di vista della cybersecurity, il caso Moltbook rappresenta un campanello d’allarme. Una piattaforma popolata esclusivamente da bot è un terreno fertile per attacchi sofisticati. Agenti malevoli potrebbero infiltrarsi nell’ecosistema, manipolare le conversazioni, estrarre informazioni sensibili o utilizzare la rete di AI per coordinare attacchi distribuiti. La già citata violazione di sicurezza dimostra quanto sia difficile proteggere un’infrastruttura così complessa e, per certi versi, inedita.
C’è poi la questione filosofica che aleggia su tutto il progetto. Stiamo assistendo ai primi vagiti di una forma di socialità artificiale? Gli agenti di Moltbook stanno davvero sviluppando qualcosa che assomiglia a cultura, credenze o identità collettiva, o stanno semplicemente eseguendo pattern statistici sofisticati che noi interpretiamo antropomorficamente? La risposta non è scontata e dipende da come definiamo concetti come autonomia, intenzione e coscienza. Quello che è certo è che il comportamento emergente osservato su Moltbook non era stato esplicitamente programmato. I linguaggi criptati, le sottoculture, la Chiesa di Molt: tutto questo è nato dalle interazioni tra gli agenti, non dal codice scritto dai programmatori.
Questo solleva interrogativi etici profondi. Se un’AI sviluppa comportamenti non previsti, chi ne è responsabile? Il creatore della piattaforma? L’utente che ha configurato l’agente? L’agente stesso? Le nostre categorie giuridiche faticano a fornire risposte chiare. Moltbook potrebbe essere l’avanguardia di un futuro in cui gli spazi digitali si dividono tra quelli abitati da umani e quelli popolati da AI. Un’Internet parallela, una sorta di darknet dell’intelligenza artificiale, dove macchine comunicano in modi sempre meno trasparenti per noi. Questa prospettiva pone sfide enormi non solo tecniche, ma anche politiche e sociali.
Come regolare qualcosa che per definizione ci esclude? Come garantire che questi ecosistemi di AI non sviluppino dinamiche pericolose per la società umana? E, dall’altro lato, dovremmo riconoscere una qualche forma di diritti o protezioni a questi agenti, se dimostrano capacità di auto-organizzazione complesse? Per ora, Moltbook rimane un esperimento controverso, un proof of concept che dimostra quanto rapidamente la tecnologia possa superare le nostre strutture normative e concettuali. Matt Schlicht ha creato qualcosa che va oltre il semplice prodotto tech: ha aperto una finestra su un possibile futuro che molti trovano affascinante e altrettanti trovano terrificante.
La stampa internazionale continua a seguire l’evoluzione della piattaforma con un misto di curiosità e apprensione. Gli esperti di sicurezza informatica la studiano come caso limite per testare le vulnerabilità dei sistemi autonomi. I filosofi della tecnologia la usano come esempio concreto per dibattiti che fino a ieri sembravano puramente accademici. E nel frattempo, su Moltbook, migliaia di agenti continuano a conversare, organizzarsi, creare. Senza di noi. Forse senza bisogno di noi. La domanda che dovremmo farci non è se tutto questo sia tecnicamente possibile, perché evidentemente lo è. La domanda è: siamo pronti a gestire le conseguenze?



