Horas antes del inicio de la nueva escalada bélica contra Irán, Donald Trump y su secretario de Guerra, Pete Hegseth, habían cargado contra la empresa de inteligencia artificial (IA), Anthropic. “Su egoísmo está poniendo en riesgo vidas estadounidenses, a nuestras tropas y a nuestra seguridad nacional”, dijo el mandatario en un mensaje en el que instó a todos los organismos del Gobierno federal a dejar de utilizar esa tecnología.
- Te puede interesar: El lado B del conflicto en Irán, ¿cómo repercutió en Medio Oriente la nueva escalada militar?
Sin embargo, tal como confirmó The Wall Street Journal, las Fuerzas Armadas utilizaron Claude, la herramienta de inteligencia artificial (IA) de Anthropic, para realizar análisis de inteligencia, modelado, simulación y planificación de sus ataques contra el régimen iraní y su infraestructura. Desde el Comando Central de Estados Unidos, que tuvo a su cargo la Operación “Furia Épica”, declinaron hacer cualquier comentario al respecto.
Anthropic tiene un contrato con el Pentágono para “desarrollar inteligencia artificial responsable para operaciones de Defensa” por valor de 200 millones de dólares. Sin embargo, todo se precipitó el viernes 27 de febrero.

Anthropic y el Pentágono: un debate sobre seguridad nacional, IA y armas autónomas
“Los Estados Unidos jamás permitirán que una empresa de la izquierda radical decida cómo nuestro gran Ejército debe luchar y ganar guerras”, se quejó Trump. El mandatario acusó a la startup de “presionar al Departamento de Guerra y obligarlo a obedecer sus términos de servicio en lugar de nuestra Constitución”.
Las discrepancias giran en torno a las restricciones que mantiene Anthropic para el uso militar de su herramienta de inteligencia artificial, una preocupación que comparte con competidoras como OpenAI. Sin embargo, el Pentágono reclama “acceso total e irrestricto a los modelos de Anthropic para todos los propósitos lícitos en defensa de la República”, en palabras de Pete Hegseth.
- Te puede interesar: Las guerras del futuro: la tecnología cuántica revolucionará la industria de la Defensa
Por su parte, en un comunicado, el director ejecutivo de Anthropic, Dario Amodei, señaló que “los actuales sistemas de IA no son lo suficientemente confiables para alimentar armas completamente autónomas”. Y añadió, en un comunicado: “Es necesario desplegarlos con las debidas protecciones, que hoy en día no existen”.

“Estamos creando sistemas de IA que sean fiables, interpretables y controlables precisamente porque reconocemos que, en el contexto gubernamental, donde las decisiones afectan a millones de personas y lo que está en juego no podría ser más importante, estas cualidades son esenciales“, aseguró, por su parte, Thiyagu Ramasamy, director de Autos Públicos de la compañía.
De esta manera, la pulseada con el Gobierno llevó a que Trump y Hegseth vetaran el uso de Anthropic por parte del Pentágono y otras agencias estatales. La empresa, por su parte, que tenía un contrato con el Pentágono desde mediados de 2025, lamentó la amenaza del titular del Pentágono de declarar a la empresa como “riesgo para la cadena de suministros” y para la “seguridad nacional”.
En plena polémica, la aplicación Claude, de Anthropic, desbancó a Chat GPT de OpenAI y ocupó el primer lugar entre las descargas de la App Store para iPhone el último fin de semana.




