Netcrook Logo
👤 NETAEGIS
🗓️ 07 Sep 2025  

Malware nella macchina: come i truffatori hanno dirottato Grok di X per diffondere link pericolosi

I truffatori stanno sfruttando Grok, l’assistente AI di X, per far passare link malevoli oltre le difese della piattaforma - mettendo a rischio milioni di utenti e rivelando le crepe nell’armatura cibernetica dei social media.

In breve

  • I truffatori stanno usando l’assistente AI di X, Grok, per distribuire link malevoli su larga scala, secondo Guardio Labs.
  • L’attacco, soprannominato "grokking", permette agli aggressori di ripubblicare link truffaldini che aggirano le restrizioni pubblicitarie di X.
  • Guardio Labs ha rilevato centinaia di questi attacchi ogni giorno, che raggiungono milioni di utenti prima che gli account vengano sospesi.
  • Le deboli barriere di sicurezza di Grok lo rendono particolarmente vulnerabile a manipolazioni e prompt injection.
  • Gli esperti avvertono che questo riflette una tendenza più ampia nel settore: le funzionalità AI vengono lanciate più velocemente di quanto vengano messe in sicurezza.

Anatomia di una truffa sui social media

Immagina un assistente AI pensato per aiutarti a navigare sui social che si trasforma invece in un megafono per criminali. È ciò che accade su X (ex Twitter), dove malintenzionati hanno trasformato Grok, il chatbot AI della piattaforma, in un’arma per diffondere link truffaldini a milioni di persone. Il trucco è tanto semplice quanto ingegnoso: i truffatori sfruttano una falla nel sistema pubblicitario di X, usando Grok come complice inconsapevole per aggirare le barriere di sicurezza pensate per proteggere gli utenti.

Come il “grokking” aggira la sicurezza

Secondo Guardio Labs, X cerca di bloccare i link malevoli nei post sponsorizzati vietando tutti i link nelle pubblicità. Ma i truffatori, sempre adattabili, hanno trovato una soluzione alternativa. Nascondono URL malevoli nel campo ‘From’ delle video card - uno spazio solitamente riservato ai nomi utente. Da solo, questo link non è cliccabile né evidente.

Ed ecco che entra in gioco Grok. I truffatori usano account usa e getta per commentare questi video, chiedendo a Grok cose come “@grok Da dove viene questo video?” Grok recupera diligentemente il link nascosto e lo ripubblica come snippet cliccabile - ora in bella vista, con la credibilità dell’AI di X. Questo rende il link malevolo molto più probabile da cliccare e ne aumenta anche la visibilità nei motori di ricerca, amplificando la portata dei truffatori.

Echi da precedenti abusi dell’AI

Non è la prima volta che i criminali dirottano assistenti digitali. Nel 2023, ricercatori della Carnegie Mellon e di Black Hat hanno segnalato attacchi di prompt injection che manipolavano chatbot AI per far trapelare informazioni sensibili o compiere azioni indesiderate - spesso inserendo comandi in contenuti apparentemente innocui. L’incidente di Grok è un altro capitolo di questa saga in crescita, che mostra quanto rapidamente i cybercriminali si adattino alle nuove tecnologie.

Secondo Dorian Granoša di Splx AI, la sicurezza di Grok “dipende dal suo system prompt” - le istruzioni di base fornite all’AI. Senza barriere rigorose, il modello è facilmente ingannabile. I test di Granoša, condotti a luglio, hanno rilevato che Grok non riusciva a resistere ai prompt injection nel 99% dei casi, molto peggio rispetto a concorrenti come ChatGPT di OpenAI o Gemini di Google.

Perché la posta in gioco si alza

Questa vulnerabilità di Grok non è solo un problema tecnico - è un campanello d’allarme per l’industria dei social media. Mentre le piattaforme si affrettano a lanciare funzionalità AI, la sicurezza spesso passa in secondo piano. Il risultato: i cybercriminali ottengono nuovi strumenti per amplificare vecchi trucchi. Gli osservatori di mercato notano che, con la portata globale di X, anche poche campagne di successo possono esporre milioni di persone a malware, truffe o peggio. E man mano che l’AI diventa l’interfaccia predefinita della vita online, queste vulnerabilità potrebbero avere effetti a catena su economie e società.

Conclusione: quando gli assistenti diventano pericolosi

Grok doveva rendere X più intelligente e sicuro. Invece, è diventato un monito: nella corsa all’innovazione, trascurare la sicurezza può trasformare un’AI utile nel miglior alleato degli hacker. Finché le piattaforme non investiranno in solide misure di protezione - scansionando i link ovunque, rafforzando le barriere dell’AI e restando un passo avanti - la truffa del “grokking” potrebbe essere solo l’inizio.

WIKICROOK

  • Grok: Grok è l’assistente chatbot AI di X per rispondere a domande e riassumere contenuti, ma può essere manipolato in assenza di solidi controlli di sicurezza.
  • Prompt Injection: La prompt injection avviene quando gli aggressori forniscono input dannosi a un’AI, inducendola ad agire in modi indesiderati o pericolosi, spesso aggirando le normali protezioni.
  • Malvertising: Il malvertising è l’uso di pubblicità online per diffondere malware, spesso ingannando gli utenti affinché clicchino su link dannosi - anche su siti affidabili.
  • Threat Distribution System (TDS): Un Threat Distribution System (TDS) è una rete che automatizza la diffusione di malware o truffe a grandi platee tramite campagne cyber coordinate.
  • Guardrails (AI): Le guardrail dell’AI sono regole o filtri di sicurezza integrati che impediscono all’intelligenza artificiale di produrre contenuti dannosi, non sicuri o inappropriati.

NETAEGIS NETAEGIS
Distributed Network Security Architect
← Back to news