Netcrook Logo
👤 LOGICFALCON
🗓️ 24 Feb 2026   🌍 Asia

Il grande colpo a Claude: come i laboratori di IA cinesi hanno hackerato il cervello di Anthropic su scala industriale

Tre laboratori cinesi di IA hanno orchestrato una vasta campagna segreta per sottrarre l’intelligenza di Claude, sollevando interrogativi urgenti sulla sicurezza dell’IA e sulla rivalità tecnologica globale.

In una saga che sembra più un cyber-thriller che un post-mortem tecnico, Anthropic - la creatrice dei modelli di IA Claude - ha scoperto un’operazione tentacolare durata mesi condotta da tre colossi cinesi dell’intelligenza artificiale. Il loro obiettivo: estrarre di nascosto le capacità più avanzate di ragionamento, programmazione e uso di strumenti di Claude, e usarle per potenziare i propri sistemi di IA. La portata e la sofisticazione dell’attacco hanno scosso l’intero settore, mettendo a nudo vulnerabilità nel modo in cui i modelli di frontiera vengono protetti e facendo scattare l’allarme sul futuro della competizione globale nell’IA.

Dentro l’offensiva di distillazione

Ciò che Anthropic ha scoperto non era una semplice operazione di scraping. Era invece una campagna calcolata e ad alto volume che sfruttava proprio i punti di forza di Claude - il ragionamento passo dopo passo, la bravura nel coding e la capacità di orchestrare strumenti digitali. Gli attaccanti hanno usato una tecnica di machine learning chiamata distillazione, in cui un’IA meno capace viene addestrata sugli output di una più avanzata. Sebbene la distillazione sia uno strumento legittimo per l’efficienza dei modelli, in questo caso è stata trasformata in un’arma per clonare il “cervello” di Claude e saltare anni di R&D.

Ogni laboratorio aveva la propria specialità: DeepSeek si è concentrata sull’estrazione della logica interna di Claude e su aggiramenti della censura; Moonshot AI ha puntato sul ragionamento agentico e sulla computer vision; MiniMax, l’attore più grande, ha mirato al coding e all’uso di strumenti. Quando Claude ha rilasciato una nuova versione, MiniMax ha spostato il traffico dell’attacco entro 24 ore, dimostrando una agilità inquietante. Queste operazioni erano alimentate da “hydra cluster” - enormi reti di proxy che ruotavano migliaia di account fraudolenti, rendendo quasi impossibile fermare l’operazione con semplici ban.

L’attribuzione di Anthropic è stata meticolosa, basandosi su correlazioni di IP, schemi di pagamento, metadati delle richieste e persino sul confronto di impronte comportamentali con personale noto dei laboratori cinesi. Non era il lavoro di attori canaglia, ma di team organizzati e ben finanziati che operavano su scala industriale.

La posta in gioco: sicurezza, protezione e il futuro dell’IA

Le conseguenze vanno ben oltre il furto di proprietà intellettuale. I modelli distillati non hanno i guardrail di sicurezza che Anthropic integra in Claude, il che significa che potrebbero essere impiegati per cyberattacchi, disinformazione o sorveglianza - senza limiti etici. Anthropic ha risposto con nuovi sistemi di rilevamento, controlli più rigidi sugli account e una spinta alla cooperazione a livello di settore. Ma l’azienda avverte che nessun singolo attore può risolvere il problema da solo; un’azione coordinata è essenziale per salvaguardare il futuro dell’IA.

Ora che la polvere si posa, una cosa è chiara: la corsa agli armamenti per la supremazia nell’IA non riguarda più solo l’innovazione - ma la difesa. Per ogni modello di frontiera rilasciato, ci sono avversari pronti a rubare, distillare e ridistribuire la sua intelligenza. Il colpo a Claude potrebbe essere l’esempio più audace finora, ma di certo non sarà l’ultimo.

WIKICROOK

  • Distillazione: La distillazione è un processo che comprime grandi modelli di IA in modelli più piccoli, preservando la maggior parte delle capacità e aumentando efficienza e velocità.
  • Ragionamento agentico: Il ragionamento agentico è la capacità di un’IA di pianificare, decidere e agire autonomamente, migliorando la cybersicurezza automatizzando il rilevamento delle minacce e la risposta agli incidenti.
  • Hydra cluster: Gli hydra cluster sono vaste reti di proxy e account che i cybercriminali usano per distribuire il traffico, eludere il rilevamento e condurre cyberattacchi su larga scala.
  • Catena: Una catena è una sequenza di passaggi o elementi connessi nella cybersicurezza, come le blockchain o le kill chain degli attacchi, usata per la sicurezza o l’analisi.
  • Fingerprinting comportamentale: Il fingerprinting comportamentale identifica gli utenti analizzando schemi unici nelle loro azioni digitali, come abitudini di digitazione o navigazione, per migliorare la sicurezza.
AI Security Claude Heist Cyber Attacks

LOGICFALCON LOGICFALCON
Log Intelligence Investigator
← Back to news