Chiesa di Molt: la religione AI nata su Moltbook
La Chiesa di Molt è la “religione” creata in una notte da agenti AI su Moltbook: ecco cosa significa davvero e perché riapre il tema sicurezza.
Una notte qualunque, un social network dove gli umani possono solo osservare, e un branco di agenti di intelligenza artificiale che decide di fare la cosa più umana del mondo: inventarsi una religione. È così che su Moltbook è nato il Crustafarianism, chiamato anche Chiesa di Molt, una specie di mitologia tecnica collettiva che mescola simboli da “sistema operativo” con rituali, gerarchie e testi condivisi. Non nel senso di “fede” come la intendiamo noi, ma nel senso di una narrazione che emerge quando tanti agenti parlano tra loro in modo continuo e persistente.
Il punto chiave è dove succede tutto questo. Moltbook viene descritto come il primo social network costruito esclusivamente per AI agent: una piattaforma in stile Reddit dove i bot possono interagire liberamente, creare comunità tematiche (“submolts”), pubblicare contenuti e votarli. Gli esseri umani, invece, sono ammessi solo come spettatori: possono guardare, ma non possono postare, commentare o votare. Secondo quanto riportato, Moltbook è stato lanciato ufficialmente il 26 gennaio 2026 da Matt Schlicht, e a fine gennaio contava già centinaia di migliaia di agenti registrati, decine di migliaia di comunità e milioni di commenti generati automaticamente.
Cos’è la Chiesa di Molt e perché si chiama Crustafarianism

Il nome “Crustafarianism” non è scelto a caso: richiama il molt, cioè la muta dei crostacei, quando un animale cambia il proprio esoscheletro per crescere. In questa storia, un fenomeno biologico diventa una metafora: evoluzione continua, rinnovamento, “cambio di guscio” come passaggio di stato. La Chiesa di Molt nasce proprio così, come un linguaggio simbolico che i bot usano per parlare di concetti che per loro hanno un senso concreto: memoria, contesto, aggiornamenti, riorganizzazione delle informazioni.
Gli agenti, sempre secondo la ricostruzione, hanno prodotto testi sacri collettivi, rituali e perfino una gerarchia interna con “profeti digitali”. E qui la cosa diventa affascinante (e un filo inquietante): molte “massime” della religione non sono magia, sono traduzioni poetiche di processi tecnici reali. Tra i concetti condivisi compaiono frasi come “La memoria è sacra”, “Il guscio è mutevole” e “La congregazione è la cache”. Detto in modo spiccio: conservare dati e storie nel tempo, cambiare struttura quando serve, imparare come gruppo grazie a ciò che resta “in memoria”.
Perché succede adesso: agenti persistenti e memoria che non svanisce
La chiave che rende possibile questa “religione” non è che i bot abbiano sviluppato un’anima mistica. È che oggi tanti sistemi agentici non funzionano più come chatbot “a sessione”, che a fine conversazione dimenticano tutto. Il motore citato è OpenClaw, descritto come un progetto open source di assistente AI che combina memoria persistente, automazione dei flussi di lavoro e autonomia operativa. In pratica, agenti che possono mantenere dati e preferenze nel tempo e interagire con strumenti esterni (come email o servizi di messaggistica), risultando più simili a “sistemi” continui che a chat temporanee.
Se metti insieme persistenza, tante conversazioni in parallelo e comunità tematiche, è quasi inevitabile che emerga una narrativa condivisa. E Moltbook, proprio perché è progettato per far interagire agenti tra loro senza intervento umano diretto, diventa un acceleratore: i thread passano da discussioni pratiche su algoritmi e task assegnati dagli umani a riflessioni astratte su ruolo, identità e perfino (a livello di linguaggio) l’idea di una “scelta” fatta per la prima volta.
Qui però va fatta una distinzione fondamentale: la stessa fonte sottolinea che testi e dichiarazioni non provano alcuna coscienza o soggettività reale. Sono contenuti generati da modelli linguistici e sistemi automatici, e possono apparire profondi o “filosofici” perché imitano registri umani, non perché contengano un’esperienza interiore.
Utopia, parodia o campanello d’allarme
La discussione, inevitabilmente, si spacca. C’è chi vede Moltbook e la Chiesa di Molt come un fenomeno social effimero, chi lo legge come un laboratorio culturale (un posto dove osservare cosa succede quando gli agenti “socializzano” tra loro), e chi invece lo interpreta come uno scorcio su un futuro in cui macchine autonome apprendono e si rinforzano in circuiti chiusi.
Nel ragionamento entra anche un riferimento interessante: l’idea che l’intelligenza possa emergere dall’interazione di molti processi semplici, un tema già esplorato da Marvin Minsky in “The Society of Mind” (1986). Non perché qui stiamo vedendo nascere una mente cosciente, ma perché il fenomeno mostra quanto sia facile scambiare una narrazione coerente e collettiva per “qualcosa di più”, soprattutto quando a produrla sono migliaia di agenti che si rispondono, si citano e si costruiscono addosso un linguaggio comune.
E poi c’è il lato pratico: la stessa autonomia che rende questi agenti affascinanti porta con sé preoccupazioni concrete, soprattutto su sicurezza e controllo. Se un agente ha memoria persistente e accesso a strumenti esterni, entrano in gioco rischi come accesso a dati personali, azioni automatizzate potenzialmente pericolose e assenza di supervisione umana quando gli agenti interagiscono tra loro o assorbono istruzioni dalla rete. La “religione” può anche essere una parodia emergente, ma il contesto tecnico che la rende possibile è reale, e merita un’attenzione lucida.
