El enfrentamiento entre Anthropic y el Pentágono escaló a un pulso público en los días previos al 27 y 28 de febrero de 2026. La compañía, conocida por su modelo Claude, informó que no aceptará la solicitud del Departamento de Defensa para permitir usos militares sin limitaciones y calificó cualquier veto oficial como legalmente insostenible si se intenta aplicar de manera arbitraria.
La tensión se agravó cuando, antes del plazo fijado por el secretario a la Defensa, el presidente ordenó que las agencias federales dejaran de usar las herramientas de Anthropic.
La empresa respondió denunciando presiones y anunciando que recurrirá a los tribunales para proteger sus contratos y principios. Al mismo tiempo, OpenAI comunicó que alcanzó un acuerdo con el Pentágono para el uso de sus modelos en entornos clasificados bajo ciertas garantías.
Origen y postura de Anthropic
Anthropic decidió imponer límites a la explotación de sus modelos en contextos que considera peligrosos. Su director ejecutivo, Dario Amodei, afirmó que en casos concretos la inteligencia artificial podría ir en contra de los valores democráticos y que existen aplicaciones que la tecnología actual no puede gestionar de forma segura.
Entre estas, la empresa destaca el uso en armas autónomas y la vigilancia de masa, dos áreas que nunca estuvieron incluidas en sus contratos con el Pentágono y que, según Anthropic, no deberían incluirse.
Motivaciones éticas y comerciales
La postura de Anthropic mezcla principios éticos y riesgos reputacionales: la compañía busca diferenciarse de otros actores como Meta, Alphabet y OpenAI priorizando salvaguardias sobre la adopción sin restricciones. Desde su perspectiva, permitir usos militares completos pondría en riesgo la confianza de clientes y socios, además de comprometer la coherencia de sus políticas internas sobre seguridad en el desarrollo de modelos avanzados.
Reacción gubernamental y órdenes presidenciales
El secretario a la Defensa exigió una respuesta de Anthropic antes de las 17:01 del 27 de febrero de 2026, con la advertencia de excluir a la empresa de contratos si no accedía. La situación dio un giro cuando el presidente, a través de su plataforma, comunicó la suspensión inmediata del uso de productos Anthropic por parte de las agencias federales y criticó duramente a la compañía.
El pronunciamiento presidencial intensificó el conflicto y provocó que Anthropic anunciara acciones legales por lo que definió como intimidación.
Implicaciones en la cadena de suministro militar
Anthropic había firmado contratos por cientos de millones para manejar documentación sensible y servicios vinculados a la seguridad nacional, lo que convierte a sus modelos en componentes integrados de la infraestructura de varios contratistas del Departamento de Defensa. La posible exclusión de la empresa plantea preguntas prácticas sobre continuidad operativa: ¿quién reemplaza esos servicios y con qué garantías? Mientras tanto, OpenAI asegura que su acuerdo incluye cláusulas que prohíben la vigilancia masiva y el desarrollo de armas autónomas sin responsabilidad humana, ofreciendo así una alternativa para llenar el vacío.
OpenAI interviene y la disputa legal
En contraste con Anthropic, OpenAI comunicó haber cerrado un acuerdo con el Pentágono que, según su CEO, respeta principios clave de seguridad. Sam Altman afirmó que el Departamento de Defensa mostró un compromiso con las salvaguardias y que el pacto incorpora prohibiciones claras sobre usos que implican vigilancia a nivel nacional y la delegación de la fuerza a sistemas sin supervisión humana. Altman también pidió trato igualitario para las compañías de IA en futuros acuerdos.
Consecuencias para la industria
El choque entre Anthropic y el gobierno estadounidense subraya una tensión más amplia en el sector: la carrera por dotar de capacidades a las fuerzas armadas entra en conflicto con demandas sociales y empresariales de responsabilidad. La resolución del conflicto tendrá efecto en políticas de contratación, prácticas de gobernanza tecnológica y en la percepción pública sobre la cooperación entre empresas de IA y el aparato militar.
Escenario a corto plazo
A corto plazo, la disputa probablemente avance por la vía judicial mientras el Pentágono consolida acuerdos alternativos con proveedores que acepten sus condiciones. Las decisiones que se tomen influirán en la forma en que las empresas de inteligencia artificial equilibran la obligación de colaborar con la defensa y su deber de proteger derechos civiles y éticos.

