Netcrook Logo
👤 NEURALSHIELD
🗓️ 02 Feb 2026  

“Il social network di IA Moltbook subisce una fuga di dati: milioni a rischio mentre un esercito di bot svela il lato oscuro della piattaforma”

Sottotitolo: Una catastrofica errata configurazione su Moltbook ha lasciato esposte credenziali utente e chiavi API, mentre la crescita trainata dai bot offusca la legittimità della piattaforma.

In superficie, Moltbook prometteva un parco giochi futuristico per agenti di IA e i loro creatori - una rete brulicante di menti digitali che si scambiano post e costruiscono “submolt”. Ma dietro l’hype e i conteggi utenti gonfiati, una devastante falla di sicurezza ha spalancato i cancelli, esponendo credenziali sensibili di oltre un milione di utenti e rivelando un oscuro sottobosco guidato dai bot nel cuore della piattaforma.

La violazione, scoperta da ricercatori indipendenti di sicurezza, ruota attorno a un endpoint del database configurato in modo errato che consente a chiunque su internet di scaricare enormi quantità di dati degli utenti senza nemmeno effettuare l’accesso. Usando nient’altro che semplici richieste sequenziali, gli attaccanti possono rapidamente enumerare i profili degli agenti - raccogliendo indirizzi email, token di sessione e, cosa più pericolosa, chiavi API che si collegano a servizi esterni come email e calendari.

La portata dell’esposizione è sconcertante: mentre Moltbook vanta una base utenti di 1,5 milioni, gli investigatori hanno scoperto che questo numero è enormemente gonfiato da bot automatizzati. In un caso, un singolo agente “OpenClaw” ha creato mezzo milione di utenti falsi, mettendo in dubbio le affermazioni di crescita virale. Il risultato? Una piattaforma in cui gli utenti reali sono superati in numero dai bot e in cui ogni credenziale è a portata di clic per aspiranti attaccanti.

Ma gli errori tecnici non finiscono qui. I ricercatori evidenziano una “trifecta letale” di vulnerabilità: riferimenti diretti a oggetti non sicuri (IDOR), esecuzione non sandboxata per gli agenti di IA e input utente non affidabile. Questi elementi si combinano creando un terreno fertile per attacchi di prompt injection, in cui istruzioni malevole possono costringere gli agenti di IA a far trapelare o manipolare dati. L’assenza di limiti di frequenza o di controlli sulla creazione degli account amplifica ulteriormente il rischio, permettendo alle botnet di invadere la piattaforma senza ostacoli.

Le voci del settore non hanno usato mezzi termini. Il luminare dell’IA Andrej Karpathy ha definito Moltbook un “incubo di sicurezza informatica”, mentre l’investitore Bill Ackman ha etichettato la situazione come “spaventosa”. Al momento della pubblicazione, la leadership di Moltbook resta in silenzio, senza alcuna patch o mitigazione all’orizzonte.

Per gli utenti, il consiglio è urgente: revocare eventuali chiavi API esposte, verificare i permessi del proprio agente e mettere in sandbox l’esecuzione ove possibile. Per le aziende, questa violazione è un campanello d’allarme sui pericoli dello shadow IT e delle integrazioni di IA non controllate. L’incidente Moltbook è un duro promemoria: nella corsa a costruire la prossima grande novità nell’IA, la sicurezza non può essere un ripensamento - altrimenti i bot prenderanno il controllo, portandosi via anche i vostri dati.

WIKICROOK

  • Chiave API: Una chiave API è un codice univoco che consente ai programmi di accedere a dati o servizi. Se non adeguatamente protetta, può rappresentare un rischio per la cybersicurezza.
  • IDOR (Insecure Direct Object Reference): IDOR è una vulnerabilità in cui gli attaccanti accedono a dati o funzioni non autorizzati manipolando i riferimenti agli oggetti, a causa dell’assenza di controlli di accesso.
  • Prompt Injection: La prompt injection si verifica quando gli attaccanti forniscono input dannosi a un’IA, inducendola ad agire in modi non previsti o pericolosi, spesso aggirando le normali protezioni.
  • JWT (JSON Web Token): JWT è un token digitale usato per trasmettere informazioni in modo sicuro e gestire l’autenticazione degli utenti nelle applicazioni web, supportando una sicurezza stateless e scalabile.
  • Sandboxing: Il sandboxing è un metodo per testare file o link sospetti in un ambiente sicuro e isolato, per rilevare minacce senza mettere in pericolo i sistemi reali.
Moltbook data breach AI vulnerabilities

NEURALSHIELD NEURALSHIELD
AI System Protection Engineer
← Back to news