El enfrentamiento público entre Anthropic y el Pentágono ha escalado hasta convertirse en un test de prioridades entre ética tecnológica y necesidades de defensa. Los hechos, desarrollados en torno al 27 y 28 de febrero de 2026, pusieron en el centro del debate la petición del Departamento de Defensa para relajar las restricciones sobre el modelo Claude y la firme negativa de su CEO, Dario Amodei.
En pocas horas la discusión pasó de negociaciones internas a sanciones públicas: desde un ultimátum oficial hasta la inclusión de Anthropic en una lista que el Pentágono califica como de riesgo para la cadena de suministro.
Simultáneamente, OpenAI surgió como actor dispuesto a cerrar acuerdos con el Departamento de Defensa, en un giro que alteró el tablero de la industria.
Origen del conflicto y posiciones enfrentadas
El desencadenante fue la solicitud del gobierno estadounidense para que Anthropic autorizara el uso de sus modelos de inteligencia artificial “para cualquier uso legal”, una fórmula que, según el Pentágono, permitiría maximizar aplicaciones en entornos clasificados. Anthropic rechazó dos usos concretos: la implementación de armas completamente autónomas y sistemas de sorveglianza masiva.
La compañía argumentó que esas aplicaciones eran incompatibles con sus principios de seguridad y responsabilidad.
Demandas del Pentágono
Desde la perspectiva del Departamento de Defensa, la flexibilidad de uso es esencial para integrar la IA en operaciones sensibles. El Pentágono planteó un plazo concreto (terminando el 27 de febrero de 2026 a las 17:01 hora local) para que Anthropic aceptara condiciones más amplias. Al percibirse un rechazo, funcionarios de alto nivel calificaron la postura de la empresa como inaceptable y llegaron a amenazar con medidas administrativas y contractuales.
Rechazo de Anthropic y argumentos éticos
Dario Amodei y la cúpula de Anthropic sostuvieron que permitir el empleo sin límites de Claude contravendría estándares éticos básicos. La empresa defendió públicamente su decisión y explicó por qué considera peligroso delegar la toma de vida o la vigilancia indiscriminada a sistemas que, según ellos, aún no alcanzan niveles de fiabilidad adecuados.
Consecuencias inmediatas: listas negras, contratos y la entrada de OpenAI
Tras la negativa, el Pentágono declaró a Anthropic un riesgo para la supply chain —una expresión reservada para proveedores cuyo uso podría comprometer proyectos militares— y anunció restricciones que afectarían la relación de la empresa con agencias federales. En paralelo, OpenAI, liderada por Sam Altman, avanzó en conversaciones y alcanzó acuerdos para ofrecer sus herramientas al Departamento de Defensa en sistemas clasificados.
Qué cambió en el mercado
La sustitución potencial de proveedores genera efectos en cadena: desde contratos multimillonarios —en algunos casos cifrados en cientos de millones de dólares— hasta decisiones de inversión y alianzas estratégicas. OpenAI afirmó que su acuerdo incorpora salvaguardias similares a las que Anthropic defendía, incluyendo la prohibición explícita de ciertos usos y la imposición de responsabilidad humana en decisiones letales; sin embargo, esa afirmación alimentó dudas sobre si las condiciones reales coinciden con las demandas originales de Anthropic.
Implicaciones éticas, legales y geopolíticas
Este episodio no es sólo un conflicto comercial: plantea preguntas sobre la gobernanza de la inteligencia artificial y la capacidad de los estados para definir límites frente a empresas tecnológicas. A nivel internacional, la ausencia de normas globales que regulen el uso militar de la IA vuelve la situación aún más frágil. Las Convenciones de Ginebra y los intentos de diálogo en foros multilaterales han quedado rezagados frente a la velocidad de la innovación.
Riesgos para la democracia y la seguridad civil
El debate sobre la vigilancia masiva y el empleo de sistemas autónomos en zonas de conflicto remite también a posibles usos en el ámbito doméstico. La tensión entre seguridad nacional y protección de derechos civiles aparece como un eje clave: cerrar el acceso a ciertas tecnologías puede limitar capacidades operativas, pero aflojar controles podría erosionar libertades fundamentales.
Escenarios futuros y lecciones para la industria
Varias lecciones emergen de este pulso: primero, que las empresas de IA deben definir políticas públicas claras sobre usos militares y civiles; segundo, que los gobiernos requerirán marcos legales sólidos para evitar decisiones improvisadas; y tercero, que la competencia entre grandes proveedores puede traducirse en maniobras geopolíticas y económicas.

