El Pentágono anunció el 01/05/2026 una serie de acuerdos con siete empresas líderes para desplegar capacidades de inteligencia artificial en los segmentos más sensibles de sus redes. Las compañías que entran en esta fase son SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft y Amazon Web Services. Al mismo tiempo, quedó excluida Anthropic, un actor influyente en el sector, en medio de una disputa con el Departamento de Defensa que toca tanto aspectos técnicos como contractuales.
Este movimiento busca acelerar la adopción de IA dentro del aparato militar sin depender de un único proveedor.
Según la nota oficial del Departamento de Defensa, los acuerdos habilitan el uso de tecnologías en los niveles más altos de protección, conocidos como Impact Levels 6 y 7, destinados a tareas de planificación, inteligencia y operaciones críticas. La plataforma principal de la institución, GenAI.mil, ya registra un uso masivo entre personal del DoD, lo que explica la urgencia por ampliar la oferta.
El objetivo declarado es diversificar proveedores para mitigar el vendor lock (dependencia de un solo proveedor) y reforzar la resiliencia tecnológica ante amenazas complejas.
Quiénes entran y qué implica la integración
La incorporación de empresas con capacidades distintas —desde infraestructuras satelitales hasta modelos de lenguaje y aceleradores de hardware— busca entregar una paleta más amplia de herramientas. SpaceX aporta conectividad y servicios satelitales, OpenAI y Google amplían la oferta de modelos avanzados, NVIDIA suministra aceleradores de cómputo, y Microsoft junto con AWS facilitan despliegue en la nube segura.
Reflection se suma con soluciones especializadas. La idea es que estos elementos trabajen en entornos clasificados para mejorar la velocidad y calidad de las decisiones militares, integrando IA en flujos de planificación y análisis.
Usos previstos y niveles de seguridad
Los Impact Levels 6 y 7 abarcan datos sensibles y secretos; por eso las implementaciones requieren controles estrictos. En la práctica, esto significa que modelos y herramientas deberán cumplir auditorías, encriptación y segregación de entornos para evitar fugas.
El Departamento enfatiza que las nuevas alianzas permiten experimentar con diferentes arquitecturas sin caer en un vendor lock, y que esa diversidad puede reducir riesgos operativos al disponer de alternativas cuando un proveedor presenta fallas o limitaciones.
La exclusión de Anthropic y el núcleo del conflicto
La ausencia de Anthropic en los nuevos acuerdos es notable: la empresa había sido proveedora de modelos en entornos clasificados y ahora se enfrenta a un veto del DoD por ser considerada un riesgo para la cadena de suministro. El foco de la disputa es una cláusula que exige el uso para «cualquier uso lícito» —una condición que Anthropic ha rechazado aceptar sin restricciones, citando preocupaciones éticas sobre aplicaciones como vigilancia masiva o armamento autónomo. Además, el impacto de su último modelo, Mythos, que detecta vulnerabilidades informáticas, intensificó los recelos por posibles efectos adversos en ciberseguridad.
Dimensión política y legal
En paralelo a las negociaciones, existe un litigio federal en curso relativo a la clasificación de Anthropic como riesgo. Desde la casa blanca y la administración se han prodigado señales mixtas: por un lado, autoridades subrayan la necesidad de protección de la cadena de suministro; por otro, algunos funcionarios han dejado la puerta abierta a una futura reconsideración si la empresa ajusta sus condiciones. El presidente Donald Trump llegó a señalar que la compañía «está mejorando» ante la administración, lo que sugiere que la exclusión no es necesariamente definitiva.
Riesgos, beneficios y escenario estratégico
Integrar múltiples proveedores puede ofrecer ventajas tangibles: mayor capacidad de respuesta, innovación competitiva y redundancia. Sin embargo, la entrada de nuevos actores a entornos clasificados también plantea desafíos de gobernanza, verificación y control de modelos. Expertos del DoD han alertado que modelos con capacidad para identificar fallas en sistemas podrían ser un arma de doble filo, tanto para defensa como para actores malintencionados; de ahí el calificativo de «momento de seguridad nacional» usado por algunos responsables. El equilibrio entre aprovechar el potencial de la inteligencia artificial y mantener la seguridad operativa será decisivo en los próximos pasos.
En resumen, la firma del 01/05/2026 representa un avance en la integración de IA en las Fuerzas Armadas estadounidenses mediante una estrategia de pluralidad de proveedores, mientras que la salida de Anthropic subraya los límites actuales entre innovación, seguridad y responsabilidad. La evolución de estos acuerdos y las respuestas legales y políticas determinarán si la administración logra materializar una arquitectura tecnológica robusta y confiable para usos clasificados.

