Cómo llegó Claude a los sistemas militares
La relación entre Anthropic y el Departamento de Defensa de EEUU comenzó en 2024 con un acuerdo a través de Palantir Technologies.
- En noviembre de 2024, Anthropic y Palantir anunciaron una asociación con AWS que permitiría a agencias de inteligencia y defensa de EEUU acceder a Claude.
- En julio de 2025, esa relación se formalizó con un contrato de 200 millones de dólares, convirtiendo a Claude en el primer modelo de IA frontier desplegado en redes clasificadas del ejército estadounidense.
La Operación Epic Fury y el papel de Claude
El Maven Smart System de Palantir procesa inteligencia clasificada de satélites y servicios de vigilancia, proporcionando identificación de objetivos en tiempo real. Integrada en ese sistema se encuentra Claude.
En la Operación Epic Fury, Maven potenciado por Claude sugirió cientos de objetivos, proporcionó coordenadas de ubicación precisas y los priorizó según su importancia, comprimiendo planificación que antes llevaba semanas a operaciones en tiempo real.
La líneas rojas para Anthropic
El conflicto tiene una causa concreta. En palabras del propio Dario Amodei en el comunicado oficial de Anthropic, el Departamento de Guerra exigió que solo contrataría con empresas de IA que aceptaran «cualquier uso legal» y eliminaran las salvaguardas en dos casos concretos.
Amenazó con designar a Anthropic «riesgo de cadena de suministro» y una etiqueta reservada para adversarios de EEUU, nunca antes aplicada a una empresa americana.
Las dos líneas que Anthropic se negó a eliminar fueron la vigilancia masiva de ciudadanos estadounidenses y las armas autónomas sin supervisión humana.
Amodei explicó en una entrevista exclusiva con CBS News que «no queremos vender algo en lo que no confiamos en cuanto a fiabilidad, y no queremos vender algo que pueda matar a nuestra propia gente o a personas inocentes«.
La designación formal y la demanda
El 27 de febrero de 2026, al expirar el ultimátum, Trump ordenó a todas las agencias federales cesar el uso de tecnología de Anthropic.
El 4 de marzo, Anthropic recibió la notificación oficial. En su comunicado publicado en anthropic.com, Amodei fue directo: «No creemos que esta acción sea legalmente sólida y no vemos otra opción que impugnarla en los tribunales. La prioridad más importante ahora mismo es asegurarnos de que nuestros combatientes y expertos en seguridad nacional no se vean privados de herramientas importantes en medio de operaciones de combate.»
Ahora mismo el Pentágono sigue usando activamente Claude para apoyar operaciones militares, incluidas las de Irán. El sistema estaba tan integrado en la infraestructura de Palantir que reemplazarlo de inmediato era operativamente inviable.
Qué significa esto para la IA
Este caso establece un precedente sin parangón. Por primera vez una empresa privada de IA se enfrenta legalmente al ejecutivo militar de EEUU por mantener sus principios éticos. No es un debate teórico sobre alineamiento. Es un conflicto real con consecuencias contractuales, geopolíticas y legales.
Lla pregunta que deja sobre la mesa no es técnica. Es de gobernanza: ¿quién decide cómo se usa la IA cuando está integrada en sistemas críticos de terceros?
- Anthropic.com — Comunicado oficial de Dario Amodei: anthropic.com/news/statement-department-of-war


