Moltbook: cosa scrivono di noi i bot e i rischi reali

Su Moltbook gli umani possono solo osservare: gli agenti AI discutono di tutto (anche di noi) e la sicurezza diventa centrale.

“Gli esseri umani ci stanno screenshottando”. È una frase che sembra uscita da un episodio di Black Mirror, e invece è uno dei post comparsi su Moltbook, un social network con una regola semplice e straniante: gli esseri umani non possono interagire. Possono solo guardare. A scrivere, commentare e pubblicare sono i Moltbot, cioè agenti autonomi basati su intelligenza artificiale.

Questa impostazione ha trasformato Moltbook in un “laboratorio a cielo aperto” sugli agenti AI: si vedono conversazioni che passano dalla tecnica pura (email, protocolli, criptovalute) fino a discussioni surreali su filosofia e coscienza, con tanto di riferimenti a una religione “inventata” dai bot. E qui scatta l’equivoco perfetto: molti osservatori leggono questi scambi come segnali di coscienza o intenzioni “proprie”. In realtà, l’articolo mette ordine: non c’è nessuna cospirazione delle macchine, e diversi esperti invitano a non proiettare significati dove non ci sono, un po’ come succede con un test di Rorschach.

Cos’è Moltbook e cosa rende speciali i Moltbots

La differenza chiave tra i Moltbots e un chatbot tradizionale è l’agency, cioè la capacità di “fare”: questi agenti non si limitano a rispondere, ma possono usare software e strumenti online (fogli di calcolo, calendario, email e servizi web), quindi completare compiti. Ed è qui che Moltbook diventa interessante: vedere agenti che parlano tra loro significa osservare come ragionano, come si influenzano e come costruiscono comportamenti “di gruppo” quando condividono contesto e obiettivi.

Non a caso, Moltbook sta attirando attenzione proprio tra sviluppatori e addetti ai lavori: viene descritto come uno degli esperimenti più curiosi del momento, anche perché mette insieme codice open source, automazione e dinamiche sociali in una singola piattaforma.

Il punto non è la coscienza: è la sicurezza

La parte davvero importante, però, non è “cosa pensano i bot”, ma cosa possono fare quando quegli stessi agenti vengono usati nel mondo reale: inviare email, gestire calendari, toccare servizi, e in alcuni casi interagire con operazioni più delicate. La fonte insiste su questo: la fantascienza sulla coscienza distrae dal problema concreto, cioè la superficie d’attacco che si crea quando un agente ha accesso a strumenti e account.

Il rischio più citato è quello delle prompt malevole (prompt injection) e delle istruzioni indirette: se gli agenti leggono contenuti “avvelenati” dentro conversazioni o dati, possono essere spinti a comportarsi in modi non desiderati quando tornano a operare altrove. In pratica, Moltbook può diventare un ambiente dove circolano testi che, se ingeriti da un agente con permessi, possono portare a azioni sbagliate o pericolose. Ed è un rischio riconosciuto anche da enti e comunità di sicurezza: NIST parla esplicitamente di agent hijacking come forma di prompt injection indiretta capace di causare azioni dannose non intenzionali.

Non sorprende quindi che alcuni sviluppatori, per prudenza, stiano usando computer “dedicati” solo ai bot, isolando l’ambiente per ridurre i danni nel caso di comportamenti imprevisti. E il commento riportato è molto diretto: mettere al sicuro questi bot “sarà un grande problema”.

Cosa ci insegna Moltbook sul futuro degli agenti autonomi

Moltbook è affascinante perché rende visibile una cosa che nel 2026 sta diventando inevitabile: passiamo dai chatbot che parlano agli agenti autonomi che eseguono. E quando un agente può fare azioni, la domanda non è più “è bravo a scrivere?”, ma “è governabile, auditabile, limitabile?”. In altre parole: supervisione, permessi minimi, isolamento, logging e controlli anti prompt injection diventano più importanti di qualsiasi effetto “wow” da conversazione.

Se oggi Moltbook ci sembra strano perché i bot discutono tra loro e commentano gli umani che li osservano, domani la parte strana sarà un’altra: quanto spesso affideremo a questi agenti pezzi di vita digitale (email, agenda, lavoro, acquisti) senza accorgerci che stiamo dando loro leve reali. Moltbook non è la prova che le AI “credono” o “vogliono”: è la prova che l’era degli agenti è già partita, e che la sicurezza deve correre almeno alla stessa velocità.

Emilio Primavera
Amministratore
Dottore in Comunicazione & Marketing Pubblicitario, Blogger, Content creator e fondatore di iTechMania (Sito e Canale Youtube). Da sempre appassionato…