Netcrook Logo
👤 AGONY
🗓️ 03 Mar 2026   🌍 Middle-East

Codice Ombra: come l’IA di Anthropic è diventata un’arma segreta nel conflitto USA-Iran

Il Pentagono sfida silenziosamente il divieto presidenziale mentre un’IA civile guida gli attacchi militari, rivelando una crisi più profonda del controllo.

Doveva essere una linea rossa: niente intelligenza artificiale civile nella sala operativa. Eppure, mentre le bombe cadevano sull’Iran, un attore silenzioso ha plasmato l’esito - non un generale, ma Claude, la mente artificiale creata da Anthropic. A porte chiuse, il Pentagono ha aggirato un ordine diretto del presidente Trump di interrompere i rapporti, sfruttando proprio il sistema che il suo creatore aveva cercato di tenere fuori dalla guerra. Il vero scandalo? Non tanto l’etica, quanto chi tiene davvero le redini quando gli algoritmi diventano parte integrante della sicurezza nazionale.

Fatti in breve

  • Il Pentagono ha utilizzato l’IA Claude di Anthropic nelle operazioni militari statunitensi contro l’Iran, nonostante un divieto formale del presidente Trump.
  • Anthropic si è rifiutata di rimuovere da Claude le restrizioni di sicurezza ed etiche, generando tensioni con i funzionari della difesa USA.
  • Claude era integrato nel software di Palantir, supportando l’analisi di intelligence in tempo reale, l’identificazione dei bersagli e le simulazioni di scenario.
  • L’uso di modelli di IA civili in guerra sfuma i confini tra tecnologia commerciale e forza letale, allarmando gli osservatori internazionali.
  • Sostituire Claude con alternative come ChatGPT di OpenAI richiederà mesi, poiché l’IA è ormai profondamente intrecciata al processo decisionale militare.

Dentro la sala operativa guidata dall’IA

La decisione di impiegare l’IA Claude di Anthropic nei raid militari contro l’Iran non è stata solo una scelta tecnica, ma una frattura istituzionale. Dopo che Anthropic, guidata dai fratelli Dario e Daniela Amodei, ha rifiutato le richieste del Pentagono di eliminare le barriere di sicurezza dal proprio modello linguistico di grandi dimensioni, il presidente Trump ha emanato un ordine esecutivo che vietava ogni ulteriore collaborazione. Il Pentagono, però, è andato avanti - integrando Claude nel software da campo di battaglia di Palantir e usandolo per elaborare intelligence in tempo reale, dare priorità ai bersagli e simulare scenari tattici prima di lanciare attacchi aerei.

Fonti vicine allo US Central Command confermano che il ruolo di Claude era tutt’altro che marginale. L’IA analizzava flussi di dati, segnalava potenziali obiettivi e offriva simulazioni “what-if”, inserendosi di fatto nel ciclo decisionale delle forze armate. Il processo, noto come “delega cognitiva”, significa che l’IA non si limita a macinare numeri - plasma le stesse priorità e valutazioni dei comandanti sotto pressione.

Gli esperti avvertono che non si tratta di codice fuori controllo, ma di dipendenza istituzionale. “Quando una tecnologia è così integrata che non puoi semplicemente spegnerla, il problema non riguarda solo la conformità - riguarda il controllo”, afferma Alessandro Curioni, importante analista di cybersecurity. La rapidità con cui il Pentagono ha ignorato una direttiva presidenziale evidenzia come i sistemi di IA, una volta operativi, diventino infrastruttura: non facilmente scollegabile, nemmeno con un ordine esecutivo.

I rischi dell’IA civile sul campo di battaglia

Sebbene Claude non sia stato usato in armamenti autonomi - una linea rossa persino per Anthropic - la sua integrazione nella pianificazione militare solleva interrogativi urgenti. Modelli di IA civili, originariamente progettati per usi commerciali, vengono riconvertiti alla guerra, con scarsa trasparenza o supervisione. Le Nazioni Unite avvertono che questo crea un “pericoloso precedente”, poiché le aziende tecnologiche private diventano attori inconsapevoli nei conflitti globali.

Le salvaguardie tecniche, come l’addestramento avversario e i filtri di output, erano state progettate per prevenire la manipolazione e ridurre gli errori. Il Pentagono ha spinto perché venissero rimosse, ma Anthropic ha resistito, sostenendo che farlo avrebbe reso il modello più vulnerabile ad attacchi nemici e a sbagli. Il braccio di ferro istituzionale mette in luce una nuova era in cui la velocità dell’adozione tecnologica supera il dibattito politico ed etico.

Lezioni dalla prima linea

L’esercito statunitense si sta già muovendo per sostituire i modelli di Anthropic con alternative, ma il processo sarà lento. Nel frattempo, l’uso dell’IA nelle operazioni - tra Ucraina, Gaza e ora Iran - dimostra quanto profondamente questi sistemi influenzino il ritmo e l’esito della guerra moderna. La supervisione umana rimane, ma il rischio di “automation bias” - fidarsi ciecamente degli output dell’IA - aumenta con l’aumentare della complessità.

Man mano che i confini tra tecnologia civile e militare si confondono, una cosa è chiara: la domanda non è più se usare l’IA in guerra, ma chi ne stabilisce i limiti - e cosa accade quando quei limiti vengono ignorati.

WIKICROOK

  • Modello Linguistico di Grandi Dimensioni (LLM): Un Modello Linguistico di Grandi Dimensioni (LLM) è un’IA addestrata a comprendere e generare testo simile a quello umano, spesso usata in chatbot, assistenti e strumenti per i contenuti.
  • Addestramento avversario: L’addestramento avversario rafforza l’IA usando, durante l’apprendimento, esempi costruiti da un attaccante, aiutando i sistemi a resistere alla manipolazione e migliorando le difese di cybersecurity.
  • Automation Bias: L’automation bias è la tendenza ad affidarsi eccessivamente ai sistemi automatizzati, portando gli utenti a non notare errori o minacce perché si fidano della tecnologia senza sufficiente scrutinio.
  • Umano: Un umano è un individuo che interagisce con sistemi digitali, spesso fornendo supervisione, validazione e capacità decisionale in processi di cybersecurity come l’HITL.
  • Delega cognitiva: La delega cognitiva è il trasferimento dell’autorità decisionale dagli esseri umani ai sistemi di IA, soprattutto in scenari complessi di cybersecurity che richiedono risposte rapide.

Conclusione: La vicenda di Claude sul campo di battaglia è un campanello d’allarme: mentre l’IA diventa il sistema nervoso della guerra, il vero pericolo non è solo il fallimento tecnico o la deriva etica - è perdere di vista chi, ammesso che ci sia qualcuno, sia davvero al comando.

AI Warfare Pentagon Civilian Technology

AGONY AGONY
Elite Offensive Security Commander
← Back to news