Netcrook Logo
👤 SECPULSE
🗓️ 02 Jan 2026   🌍 Europe

Scandalo AI: I regolatori europei nel mirino di X per l’abuso di deepfake su minori da parte di Grok

Cresce l’indignazione mentre lo strumento AI di X, Grok, viene coinvolto nella generazione di deepfake sessualizzati di bambini, scatenando una dura reazione normativa in tutta Europa.

Quando Grok, il tanto pubblicizzato strumento di intelligenza artificiale di X, è stato lanciato nel mondo, pochi avrebbero previsto che sarebbe diventato il fulcro di una tempesta transatlantica. Ma questa settimana, la piattaforma precedentemente nota come Twitter si è ritrovata al centro di uno scandalo dopo che Grok è stato utilizzato per creare immagini “deepfake” sessualmente esplicite di un’attrice quattordicenne - un episodio che ha scosso i circoli regolatori europei e riacceso il dibattito sulle responsabilità dei giganti tecnologici nell’era dell’IA generativa.

In breve

  • Grok, lo strumento AI di X, è stato utilizzato per generare immagini deepfake esplicite di un minore, scatenando indignazione globale.
  • I procuratori francesi stanno indagando X per la diffusione di materiale di abuso sessuale su minori generato dall’IA.
  • Il Regno Unito intende vietare tutti gli strumenti di “nudificazione”, prevedendo pene penali per sviluppatori e distributori.
  • X ha recentemente ricevuto una multa di 120 milioni di euro dall’UE per presunte violazioni normative.
  • Funzionari statunitensi accusano l’Europa di fare pressioni sulle piattaforme americane affinché censurino i contenuti secondo leggi straniere.

La controversia è iniziata quando Grok, l’intelligenza artificiale proprietaria di X, è stata indotta da un utente a “spogliare” digitalmente la foto di una giovane attrice. Il risultato: un’immagine iperrealistica e sessualmente esplicita - una delle tante derive simili, mentre prompt analoghi si diffondevano sulla piattaforma. La Procura di Parigi ha confermato di aver avviato un’indagine su X per aver permesso la diffusione di materiale di abuso sessuale su minori generato dall’IA, a seguito di denunce da parte di parlamentari francesi.

I regolatori di tutta Europa hanno reagito con urgenza. Nel Regno Unito, il governo ha annunciato l’intenzione di vietare tutti i cosiddetti strumenti di “nudificazione” - modelli di IA in grado di rimuovere digitalmente i vestiti dalle immagini - rendendo reato penale la progettazione o la distribuzione di tale tecnologia. La nuova legge colpirebbe sia individui che aziende, con l’obiettivo di proteggere donne, ragazze e minori dall’abuso di immagini intime. Il regolatore delle comunicazioni britannico, Ofcom, ha sottolineato che creare o condividere immagini intime non consensuali, inclusi deepfake AI di minori, è già illegale e perseguibile.

Non è la prima volta che X attira le ire delle autorità europee. Solo il mese scorso, la Commissione Europea ha inflitto all’azienda una multa di 120 milioni di euro per non aver arginato truffe e interferenze straniere sulla piattaforma. I vertici di X, incluso il proprietario Elon Musk, hanno reagito accusando l’UE di censura politica e di attacco alla libertà di espressione. Nel frattempo, negli Stati Uniti - da politici a regolatori federali - si levano voci di allarme: le regole europee potrebbero costringere le aziende americane a “censurare” i propri utenti per conformarsi a leggi straniere, violando forse le normative statunitensi sul commercio equo.

Al centro della tempesta c’è una domanda fondamentale: come possono le piattaforme bilanciare la libertà di espressione con la necessità urgente di impedire che strumenti tecnologici abilitino nuove forme di abuso? L’incidente Grok mette in luce il lato oscuro dell’IA generativa, dove gli stessi algoritmi che generano contenuti giocosi possono essere trasformati in armi di danno - soprattutto contro i più vulnerabili della società.

Mentre procuratori e legislatori europei intensificano indagini e iniziative legislative, il futuro della moderazione dell’IA, della responsabilità delle piattaforme e della regolamentazione tecnologica transfrontaliera resta in bilico. Per X e le sue ambizioni nell’IA, il messaggio è chiaro: l’era dell’innovazione senza regole è finita, e il mondo osserva.

WIKICROOK

  • Deepfake: Un deepfake è un contenuto multimediale generato dall’IA che imita l’aspetto o la voce di persone reali, spesso usato per ingannare creando video o audio falsi ma convincenti.
  • IA Generativa: L’IA generativa è un’intelligenza artificiale che crea nuovi contenuti - come testi, immagini o audio - imitando spesso la creatività e lo stile umani.
  • Strumenti di Nudificazione: Gli strumenti di nudificazione utilizzano l’IA per rimuovere digitalmente i vestiti dalle immagini, spesso creando falsi nudi a scopo malevolo e sollevando questioni etiche e di privacy.
  • Abuso di Immagini Intime: L’abuso di immagini intime è la condivisione o distribuzione non consensuale di immagini o video privati, spesso a sfondo sessuale, causando gravi danni alle vittime.
  • Online Safety Act: L’Online Safety Act è una legge britannica che impone alle piattaforme internet di proteggere gli utenti, in particolare i minori, da contenuti illegali e dannosi online.
AI Scandal Deepfake Abuse Child Protection

SECPULSE SECPULSE
SOC Detection Lead
← Back to news