El enfrentamiento entre Anthropic y el organismo militar estadounidense ha escalado hasta los tribunales, abriendo un debate público sobre la relación entre empresas de tecnología y el Estado. En el centro está la decisión del gobierno de etiquetar a la compañía como un riesgo de la cadena de suministro, una medida que, según los abogados de Anthropic, constituye una represalia por las limitaciones que la empresa impone al uso militar de su modelo Claude.
Esta circunstancia ha llevado a demandas federales y a audiencias judiciales que examinan tanto el fondo técnico como los principios constitucionales en juego.
El conflicto se desarrolló mientras Anthropic negociaba con el Departamento de Defensa (mencionado en algunos documentos como Department of War (DoW)) un contrato cuyo alcance y condiciones generaron fricción. La firma había introducido red lines, es decir, cláusulas que prohíben usos como la vigilancia masiva o armamento completamente autónomo.
Al negarse a ceder en esos límites, la compañía sufrió una designación que restringe su acceso a contratos y relaciones con contratistas militares, y que ahora está sometida a revisión judicial.
Detalles del pleito y argumentos centrales
Ante el tribunal de San Francisco, la jueza Rita Lin analizó solicitudes de medidas cautelares que buscan suspender temporalmente la designación. Anthropic alega que el etiquetado equivale a un castigo por haber alertado públicamente y haberse negado a aceptar condiciones que la empresa considera éticamente inaceptables.
Los demandantes sostienen que la acción gubernamental podría violar la Primera Enmienda al penalizar la protesta y la crítica, y demandan que el tribunal evalúe si las actuaciones del Departamento excedieron la simple cancelación contractual.
Posturas del gobierno y de la empresa
Por su parte, representantes del gobierno han defendido la medida argumentando que la decisión se basa en una valoración de riesgo operativo: temen que Anthropic pueda, según su argumento, manipular el software o comportarse de manera imprevisible en momentos críticos.
En la audiencia, el abogado del gobierno reconoció que ciertas declaraciones del secretario de Defensa, Pete Hegseth, —como prohibir que contratistas militares trabajen con Anthropic— carecen de base legal para aplicarse fuera del ámbito del propio departamento, un detalle que complicó la narrativa oficial.
Implicaciones para la industria tecnológica
El caso ha provocado inquietud en el ecosistema tecnológico porque la etiqueta de riesgo de la cadena de suministro suele reservarse para actores extranjeros o grupos hostiles, no para startups nacionales que proclaman compromisos éticos. Expertos en defensa, organizaciones de derechos digitales y líderes del sector han advertido que la decisión podría crear un precedente que desincentive a otras compañías a imponer salvaguardas sobre la utilización de sus productos.
Reemplazos y transición
En paralelo, el Pentágono ha anunciado planes para sustituir las tecnologías de Anthropic por alternativas de proveedores como Google, OpenAI y xAI durante los próximos meses, y alega haber implementado medidas para evitar manipulaciones en el proceso. La empresa, sin embargo, niega que el gobierno tenga control técnico sobre las actualizaciones de sus modelos y sostiene que el castigo administrativo afecta su reputación y la relación con clientes que ahora dudan en seguir contratándola.
Consecuencias legales y escenarios futuros
Además de la audiencia en San Francisco, existe otro litigio pendiente en un tribunal de apelaciones en Washington, DC, cuya resolución podría llegar sin una audiencia pública adicional. Si la jueza concede la suspensión solicitada, Anthropic ganaría tiempo para retener clientes indecisos mientras se decide el fondo del asunto. Si no, la etiqueta de riesgo puede provocar efectos contractuales inmediatos y una erosión de confianza en el mercado.
Lecciones para empresas y reguladores
Independientemente del fallo, el conflicto plantea preguntas sobre cómo equilibrar seguridad nacional y ética empresarial en tecnologías de doble uso. Para las startups de IA, el caso refuerza la necesidad de evaluar riesgos regulatorios desde el inicio, diseñar cláusulas contractuales claras y crear estrategias legales y de comunicación para situaciones de presión estatal. Para reguladores y responsables de defensa, la disputa subraya la importancia de aplicar herramientas extraordinarias con criterios precisos y proporcionados, evitando etiquetados que puedan interpretarse como represalias por posturas públicas.
En suma, esta disputa no solo enfrenta a una empresa y a una institución: cuestiona cómo se definen los límites del poder gubernamental frente a decisiones empresariales sobre usos éticos de la inteligencia artificial, y marca un precedente que muchas compañías y observadores seguirán con atención.

