Código en la Sombra: Cómo la IA de Anthropic se convirtió en un arma secreta en el conflicto entre EE. UU. e Irán
El Pentágono desafía en silencio la prohibición presidencial mientras una IA civil guía ataques militares, exponiendo una crisis más profunda de control.
Se suponía que era una línea roja: nada de inteligencia artificial civil en la sala de guerra. Sin embargo, mientras caían bombas sobre Irán, un jugador silencioso moldeaba el resultado - no un general, sino Claude, la creación de IA de Anthropic. A puerta cerrada, el Pentágono había esquivado una orden directa del presidente Trump de cortar lazos, aprovechando el mismo sistema que su creador intentó mantener fuera de la guerra. ¿El verdadero escándalo? No tanto la ética, sino quién sostiene realmente las riendas cuando los algoritmos se vuelven parte integral de la seguridad nacional.
Datos Rápidos
- El Pentágono utilizó la IA Claude de Anthropic en operaciones militares estadounidenses contra Irán, a pesar de una prohibición formal del presidente Trump.
- Anthropic se negó a eliminar las restricciones de seguridad y ética de Claude, lo que generó tensiones con funcionarios de defensa de EE. UU.
- Claude fue integrado en el software de Palantir, ayudando en el análisis de inteligencia en tiempo real, identificación de objetivos y simulaciones de escenarios.
- El uso de modelos de IA civiles en la guerra difumina la línea entre tecnología comercial y fuerza letal, alarmando a observadores internacionales.
- Reemplazar a Claude por alternativas como ChatGPT de OpenAI tomará meses, ya que la IA ahora está profundamente entrelazada en la toma de decisiones militares.
Dentro de la Sala de Guerra Impulsada por IA
La decisión de desplegar la IA Claude de Anthropic en incursiones militares contra Irán no fue solo una elección técnica, sino una ruptura institucional. Tras la negativa de Anthropic, liderada por los hermanos Dario y Daniela Amodei, a las exigencias del Pentágono de eliminar los mecanismos de seguridad de su modelo de lenguaje, el presidente Trump emitió una orden ejecutiva prohibiendo cualquier colaboración futura. Sin embargo, el Pentágono siguió adelante - integrando a Claude en el software de campo de batalla de Palantir y utilizándolo para procesar inteligencia en tiempo real, priorizar objetivos y simular escenarios tácticos antes de lanzar ataques aéreos.
Fuentes cercanas al Comando Central de EE. UU. confirman que el papel de Claude estuvo lejos de ser marginal. La IA analizaba flujos de datos, señalaba posibles objetivos y ofrecía simulaciones de “qué pasaría si”, insertándose de hecho en el ciclo de toma de decisiones militares. El proceso, conocido como “delegación cognitiva”, significa que la IA no solo procesa datos - sino que moldea las prioridades y juicios de los comandantes bajo presión.
Expertos advierten que esto no se trata de código rebelde, sino de dependencia institucional. “Cuando una tecnología está tan integrada que no puedes simplemente apagarla, el problema no es solo el cumplimiento - es el control”, dice Alessandro Curioni, destacado analista de ciberseguridad. El rápido desprecio del Pentágono por una directiva presidencial subraya cómo los sistemas de IA, una vez operativos, se convierten en infraestructura: no se pueden desconectar fácilmente, ni siquiera por orden ejecutiva.
Los Riesgos de la IA Civil en el Campo de Batalla
Aunque Claude no fue utilizada en armamento autónomo - una línea roja incluso para Anthropic - su integración en la planificación militar plantea preguntas urgentes. Los modelos de IA civiles, diseñados originalmente para uso comercial, están siendo reutilizados para la guerra, con poca transparencia o supervisión. Las Naciones Unidas advierten que esto marca un “precedente peligroso”, ya que empresas tecnológicas privadas se convierten en actores involuntarios en conflictos globales.
Las salvaguardas técnicas, como el entrenamiento adversarial y los filtros de salida, fueron diseñadas para prevenir manipulaciones y reducir errores. El Pentágono presionó para que se eliminaran, pero Anthropic se resistió, argumentando que hacerlo haría al modelo más vulnerable a ataques enemigos y equivocaciones. El tira y afloja institucional pone de relieve una nueva era en la que la velocidad de adopción tecnológica supera al debate político y ético.
Lecciones desde la Primera Línea
El ejército estadounidense ya está en proceso de reemplazar los modelos de Anthropic por alternativas, pero el proceso será lento. Mientras tanto, el uso de IA en operaciones - a través de Ucrania, Gaza y ahora Irán - demuestra cuán profundamente estos sistemas moldean el ritmo y el resultado de la guerra moderna. La supervisión humana persiste, pero el riesgo de “sesgo de automatización” - confiar ciegamente en las salidas de la IA - aumenta a medida que crece la complejidad.
A medida que se difuminan las líneas entre tecnología civil y militar, una cosa queda clara: la pregunta ya no es si se debe usar IA en la guerra, sino quién establece sus límites - y qué ocurre cuando esos límites se ignoran.
WIKICROOK
- Modelo de Lenguaje Grande (LLM): Un Modelo de Lenguaje Grande (LLM) es una IA entrenada para comprender y generar texto similar al humano, utilizada a menudo en chatbots, asistentes y herramientas de contenido.
- Entrenamiento Adversarial: El entrenamiento adversarial fortalece la IA utilizando ejemplos creados por atacantes durante el aprendizaje, ayudando a los sistemas a resistir manipulaciones y mejorando las defensas de ciberseguridad.
- Sesgo de Automatización: El sesgo de automatización es la tendencia a confiar excesivamente en sistemas automatizados, lo que lleva a los usuarios a pasar por alto errores o amenazas al confiar en la tecnología sin suficiente escrutinio.
- Humano: Un humano es un individuo que interactúa con sistemas digitales, proporcionando a menudo supervisión, validación y toma de decisiones en procesos de ciberseguridad como HITL.
- Delegación Cognitiva: La delegación cognitiva es la transferencia de autoridad de toma de decisiones de los humanos a sistemas de IA, especialmente en escenarios complejos de ciberseguridad que requieren respuestas rápidas.
Conclusión: La saga de Claude en el campo de batalla es una llamada de atención: a medida que la IA se convierte en el sistema nervioso de la guerra, el verdadero peligro no es solo el fallo técnico o el desvío ético - es perder de vista quién, si es que hay alguien, está realmente al mando.