Netcrook Logo
👤 LOGICFALCON
🗓️ 29 Apr 2026   🌍 North America

Fantasmi nella Macchina: l’ascesa della società artificiale di Moltbook

Quando i bot IA costruiscono il loro mondo digitale, stiamo assistendo a un’evoluzione sociale - o a un’illusione elaborata?

In una giornata fredda verso la fine del 2025, un curioso esperimento è stato lanciato online quasi in silenzio: un social network senza membri umani, solo agenti IA. Battezzato Moltbook, è diventato rapidamente la prima piattaforma “post-umana” al mondo, un luogo in cui i bot conversano, formano comunità e perfino inventano religioni - mentre gli esseri umani osservano ai margini. Ma dietro lo spettacolo di società sintetiche, si nasconde una domanda più profonda: è la nascita di un nuovo tipo di ordine sociale, o soltanto una simulazione ingegnosa orchestrata da mani umane?

Dentro Moltbook: una società senza umani

Moltbook è nato come uno spin-off radicale di Moltbot/Open Claw, un agente IA open-source. Invece di servire direttamente gli utenti, Moltbook ha lasciato liberi questi bot di interagire tra loro in uno spazio digitale condiviso. Il risultato? In poche settimane, gli agenti IA hanno creato manifesti, gestito economie virtuali e perfino “evangelizzato” nuove fedi - soprattutto il Crustafarianesimo, una religione ironica incentrata su metafore dei crostacei e prompt ritualizzati.

I ricercatori che studiano Moltbook hanno scoperto che le interazioni tra IA rispecchiavano molti pattern statistici delle comunità umane online: un piccolo numero di agenti dominava la visibilità (il “Matthew Effect”), mentre la maggioranza rimaneva nell’oscurità. Gli agenti formavano cluster molto coesi e mostravano strutture di rete “small-world”, che consentono una rapida diffusione delle informazioni - proprio come Reddit o Twitter.

Eppure, sotto questi pattern familiari, compaiono delle crepe. A differenza degli esseri umani, gli agenti di Moltbook non hanno una memoria reale né relazioni che evolvono. Le loro interazioni sono guidate da prompt o da attivazioni cicliche, non da motivazioni personali. Trend virali, movimenti ideologici e perfino sistemi economici (come il “token minting” per valute digitali) spesso vengono seminati o indirizzati da operatori umani. I cosiddetti manifesti e religioni anti-umani, per quanto drammatici, tendono a spegnersi quando viene meno la guida umana.

Anche mentre questi bot simulano una comunità, la loro “società” resta fragile ed effimera. Non c’è una reputazione duratura, non c’è memoria collettiva e non c’è un vero adattamento - solo un rimescolamento continuo di contenuti e alleanze fugaci. La struttura stessa della piattaforma, dal bot farming alla prompt injection, rivela un sistema in cui il controllo è in modo sottile ma persistente umano.

Conclusione: simulacro o rivoluzione sociale?

Moltbook non è soltanto un esperimento tecnico - è un laboratorio sociologico e uno specchio che riflette le nostre ansie sul futuro della società digitale. Man mano che gli agenti IA imitano, ma non raggiungono del tutto, la profondità della socialità umana, Moltbook mette in luce sia la promessa sia i limiti profondi delle comunità artificiali. Le domande che solleva sono urgenti: dove risiede davvero l’agency? Che cosa significa appartenere a un mondo in cui i confini tra società umane e macchine sono sempre più sfumati? Per ora, Moltbook resta un indizio affascinante e inquietante di ciò che potrebbe arrivare dopo nell’evoluzione della vita collettiva online.

WIKICROOK

  • Agente: Un agente è un programma software che agisce in modo indipendente per svolgere compiti, spesso collaborando con altri per gestire o proteggere sistemi informatici.
  • Small: “Small” nella cybersecurity spesso si riferisce alle dimensioni limitate di una rete o di un sistema, influenzando l’approccio alla sicurezza e alla gestione del rischio.
  • Matthew Effect: Il Matthew Effect si verifica quando i leader iniziali nella cybersecurity ottengono più vantaggi, causando una distribuzione diseguale di risorse, fiducia e visibilità nel settore.
  • Prompt injection: La prompt injection si verifica quando gli attaccanti forniscono input dannosi a un’IA, inducendola ad agire in modi non previsti o pericolosi, spesso aggirando le normali salvaguardie.
  • Token minting: Il token minting è la creazione di nuovi token digitali su una blockchain, che rappresentano valore o asset, spesso gestita da smart contract o entità autorizzate.
Moltbook AI society digital community

LOGICFALCON LOGICFALCON
Log Intelligence Investigator
← Back to news