Code de l’Ombre : Comment l’IA d’Anthropic est devenue une arme secrète dans le conflit États-Unis-Iran
Le Pentagone défie discrètement l’interdiction présidentielle alors qu’une IA civile guide les frappes militaires, révélant une crise de contrôle plus profonde.
Cela devait être une ligne rouge : aucune intelligence artificielle civile dans la salle de commandement. Pourtant, alors que les bombes tombaient sur l’Iran, un acteur silencieux a influencé l’issue du conflit - pas un général, mais Claude, l’IA conçue par Anthropic. Derrière des portes closes, le Pentagone avait contourné un ordre direct du président Trump de rompre les liens, exploitant le système même que son créateur voulait tenir à l’écart de la guerre. Le véritable scandale ? Ce n’est pas tant une question d’éthique, mais de savoir qui tient réellement les rênes lorsque les algorithmes deviennent essentiels à la sécurité nationale.
En Bref
- Le Pentagone a utilisé l’IA Claude d’Anthropic dans des opérations militaires américaines contre l’Iran, malgré une interdiction formelle du président Trump.
- Anthropic a refusé de retirer les restrictions de sécurité et d’éthique de Claude, provoquant des tensions avec les responsables de la défense américaine.
- Claude était intégré au logiciel de Palantir, aidant à l’analyse du renseignement en temps réel, à l’identification des cibles et à la simulation de scénarios.
- L’utilisation de modèles d’IA civils dans la guerre brouille la frontière entre technologie commerciale et force létale, inquiétant les observateurs internationaux.
- Remplacer Claude par des alternatives comme ChatGPT d’OpenAI prendra des mois, l’IA étant désormais profondément ancrée dans la prise de décision militaire.
Au cœur de la salle de guerre pilotée par l’IA
La décision de déployer l’IA Claude d’Anthropic lors de raids militaires contre l’Iran n’était pas seulement un choix technique, mais une rupture institutionnelle. Après qu’Anthropic, dirigée par les frères et sœurs Dario et Daniela Amodei, a refusé les demandes du Pentagone de supprimer les garde-fous de sécurité de leur grand modèle linguistique, le président Trump a publié un décret interdisant toute collaboration future. Le Pentagone, cependant, a poursuivi - intégrant Claude au logiciel de champ de bataille de Palantir, et l’utilisant pour traiter le renseignement en temps réel, prioriser les cibles et simuler des scénarios tactiques avant de lancer des frappes aériennes.
Des sources proches du US Central Command confirment que le rôle de Claude était loin d’être marginal. L’IA analysait des flux de données, signalait des cibles potentielles et proposait des simulations « et si », s’insérant ainsi dans le cycle décisionnel militaire. Ce processus, appelé « délégation cognitive », signifie que l’IA ne se contente pas de traiter des chiffres - elle façonne les priorités et les jugements mêmes des commandants sous pression.
Les experts avertissent qu’il ne s’agit pas de code rebelle, mais de dépendance institutionnelle. « Lorsqu’une technologie est si intégrée qu’on ne peut plus simplement l’éteindre, le problème ne relève plus seulement de la conformité - c’est une question de contrôle », explique Alessandro Curioni, analyste de cybersécurité de premier plan. Le mépris rapide du Pentagone pour une directive présidentielle souligne comment les systèmes d’IA, une fois opérationnels, deviennent une infrastructure : difficile à débrancher, même par décret exécutif.
Les risques de l’IA civile sur le champ de bataille
Si Claude n’a pas été utilisée dans des armes autonomes - une ligne rouge même pour Anthropic - son intégration dans la planification militaire soulève des questions urgentes. Les modèles d’IA civils, conçus à l’origine pour un usage commercial, sont détournés pour la guerre, sans transparence ni supervision. Les Nations Unies avertissent que cela crée un « précédent dangereux », les entreprises technologiques privées devenant des acteurs involontaires des conflits mondiaux.
Des garde-fous techniques, comme l’entraînement adversarial et les filtres de sortie, ont été conçus pour prévenir la manipulation et réduire les erreurs. Le Pentagone a voulu les lever, mais Anthropic a résisté, arguant que cela rendrait le modèle plus vulnérable aux attaques ennemies et aux erreurs. Ce bras de fer institutionnel illustre une nouvelle ère où la vitesse d’adoption technologique dépasse le débat politique et éthique.
Leçons du front
L’armée américaine cherche déjà à remplacer les modèles d’Anthropic par d’autres alternatives, mais le processus sera long. En attendant, l’utilisation de l’IA dans les opérations - en Ukraine, à Gaza, et désormais en Iran - démontre à quel point ces systèmes influencent le rythme et l’issue de la guerre moderne. La supervision humaine subsiste, mais le risque de « biais d’automatisation » - faire aveuglément confiance aux résultats de l’IA - augmente à mesure que la complexité s’accroît.
À mesure que la frontière entre technologie civile et militaire s’estompe, une chose est claire : la question n’est plus de savoir s’il faut utiliser l’IA dans la guerre, mais qui en fixe les limites - et ce qu’il advient lorsque ces limites sont ignorées.
WIKICROOK
- Large Language Model (LLM) : Un Large Language Model (LLM) est une IA entraînée à comprendre et générer du texte de type humain, souvent utilisée dans les chatbots, assistants et outils de contenu.
- Entraînement Adversarial : L’entraînement adversarial renforce l’IA en utilisant des exemples conçus par des attaquants lors de l’apprentissage, aidant les systèmes à résister à la manipulation et à améliorer la cybersécurité.
- Biais d’automatisation : Le biais d’automatisation est la tendance à trop se fier aux systèmes automatisés, amenant les utilisateurs à manquer des erreurs ou des menaces en faisant confiance à la technologie sans vérification suffisante.
- Humain : Un humain est un individu interagissant avec des systèmes numériques, assurant souvent la supervision, la validation et la prise de décision dans des processus de cybersécurité comme HITL.
- Délégation cognitive : La délégation cognitive est le transfert de l’autorité décisionnelle des humains vers les systèmes d’IA, notamment dans des scénarios de cybersécurité complexes nécessitant des réponses rapides.
Conclusion : La saga de Claude sur le champ de bataille est un signal d’alarme : à mesure que l’IA devient le système nerveux de la guerre, le vrai danger n’est pas seulement la défaillance technique ou la dérive éthique - c’est de perdre de vue qui, le cas échéant, est réellement aux commandes.