El Departamento de Defensa de Estados Unidos adjudicó un contrato multimillonario a varias compañías de inteligencia artificial, entre ellas xAI, la empresa fundada por Elon Musk. Este acuerdo forma parte de una inversión total de hasta 200 millones de dólares destinados a integrar tecnologías de IA generativa en diversas agencias gubernamentales, incluidas áreas sensibles como defensa, salud y ciencia.
El contrato también se produce en un contexto tenso entre Elon Musk y Donald Trump. Aunque alguna vez fueron aliados, Musk formó parte de un consejo asesor del presidente y se rompió después de que el empresario lo criticara públicamente y varios cruces públicos.
Te puede interesar: Elon Musk: cómo continuará la red social X luego de su venta a xAI
Cómo es el contrato entre Grok y el Pentágono
El contrato se inscribe dentro del programa federal de acceso a servicios de IA aprobado recientemente y, aunque incluye a gigantes como OpenAI, Google y Anthropic, la inclusión de xAI con su producto Grok generó una fuerte repercusión mediática.
La herramienta que proveerá Musk a través de xAI es Grok, una IA generativa que ha sido entrenada sobre datos extraídos de la plataforma X (ex Twitter) y que opera gracias a una de las mayores infraestructuras tecnológicas del mundo: el superordenador Colossus, ubicado en Memphis.
Este centro de datos, equipado actualmente con más de 200 mil GPU y con planes de expandirse a un millón, es uno de los pilares que permite a xAI competir al más alto nivel en el mundo de la inteligencia artificial. Grok 4, la versión más reciente del modelo, será utilizada por distintas agencias federales a través del sistema de compras públicas de la General Services Administration, bajo la iniciativa conocida como “Grok for Government”.

El contrato tiene como objetivo implementar flujos de trabajo conocidos como “agentic workflows”, es decir, tareas realizadas de forma semi-autónoma o con mínima intervención humana, tanto en contextos administrativos como operativos. Entre las funciones previstas se encuentran el procesamiento masivo de datos, la interpretación de imágenes satelitales, el análisis de señales de inteligencia, y la toma de decisiones tácticas en tiempo real.
Uno de los aspectos más importantes es que las tecnologías involucradas deben cumplir con criterios de transparencia, por lo que el desarrollo de “IA explicable” (XAI, por sus siglas en inglés) será un punto clave.
Las polémicas que desató la empresa de Elon Musk
Sin embargo, el anuncio no está exento de polémicas. Diversas organizaciones y especialistas en ética tecnológica han expresado su preocupación por el rol de Musk y el historial reciente de Grok. El chatbot fue duramente criticado hace solo unas semanas cuando usuarios lograron que se autodenominara “MechaHitler”, en un episodio ampliamente difundido que cuestionó la seguridad y los filtros de contenido del modelo.
Este antecedente, sumado a la falta de supervisión externa sobre los sistemas de xAI, reaviva el debate sobre los límites de la inteligencia artificial en contextos militares y gubernamentales.
El impacto de este contrato podría ser enorme. Por un lado, marca una aceleración en la adopción oficial de tecnologías de IA generativa por parte del gobierno estadounidense, en sintonía con la orden ejecutiva firmada por el presidente Trump en abril para flexibilizar regulaciones sobre IA en defensa.

Por otro, posiciona a xAI como uno de los jugadores principales en una carrera que hasta ahora lideraban empresas con mayor trayectoria institucional. Esta normalización del uso de inteligencia artificial comercial en áreas críticas, como defensa y ciberseguridad, abre una nueva etapa de colaboración público-privada con implicancias profundas, tanto tecnológicas como éticas.
Expertos señalan que la capacidad de Grok y Colossus para procesar grandes volúmenes de información en tiempo real podría cambiar la forma en que se diseñan y ejecutan misiones militares, pero también advierten sobre los riesgos de errores, sesgos o decisiones automatizadas que escapen al control humano. Además, preocupa el acceso que estas plataformas privadas puedan tener a datos sensibles o clasificados, en un contexto donde la confianza institucional se vuelve fundamental.