La empresa de inteligencia artificial Anthropic obtuvo una medida cautelar preliminar que impide temporalmente al Departamento de Defensa clasificarla como un riesgo de la cadena de suministro. La jueza federal Rita Lin, que preside en San Francisco, determinó que la etiqueta aplicada por el Pentágono podría ser arbitraria y contraria a la ley, y devolvió el escenario al punto anterior a las directrices que comenzaron a aplicarse el 27 de febrero.
Esta decisión no resuelve el fondo del conflicto, pero sí restaura por ahora condiciones que permiten a algunos clientes volver a evaluar sus relaciones comerciales con la compañía.
El caso ha trascendido más allá de una disputa contractual: se ha convertido en un choque sobre la forma en que el gobierno puede regular o sancionar a empresas tecnológicas por sus políticas de uso de modelos de IA. Anthropic, conocida por su modelo Claude, había comunicado límites explícitos sobre usos militares y de vigilancia masiva; esas restricciones motivaron reproches por parte de funcionarios que consideraron que la empresa no era suficientemente flexible para las necesidades del gobierno.
La orden judicial se percibe como un respiro para la firma y como una crítica al modo en que se impuso la sanción.
La decisión judicial y su alcance
En su resolución, la jueza Lin explicó que la designación del Pentágono parecía carecer de una base legítima para inferir que las limitaciones de uso de Anthropic la convertirían en un sabotador. La orden busca mantener el status quo anterior a las directivas emitidas a finales de febrero y protege a la empresa de efectos inmediatos que habrían restringido su acceso a contratos y a clientes públicos.
Es importante subrayar que la medida es temporal: no impide que el gobierno tome acciones legales o administrativas lícitas que ya fueran posibles en esa fecha, ni obliga a las agencias a utilizar la tecnología de la compañía.
Qué significa la medida cautelar
La medida cautelar actúa como un freno mientras el tribunal examina los argumentos legales que Anthropic presentó: entre ellos, que el etiquetado equivale a una represalia por su postura pública sobre seguridad y límites de uso.
La orden no elimina la potestad del Pentágono para dejar de usar el software ni para contratar alternativas, pero sí le prohíbe fundamentar esas decisiones en la etiqueta de riesgo de la cadena de suministro aplicada a la empresa. Además, la medida no entra en conflicto con otras causas pendientes, incluida una apelación federal en Washington D.C., que aborda otra prohibición basada en una norma distinta.
Consecuencias para el Pentágono y Anthropic
El Departamento de Defensa había confiado en Claude para tareas que, según informes, incluían redacción de documentos sensibles y análisis de datos clasificados. Tras la controversia, varias agencias comenzaron a dejar de usar la herramienta, y la etiqueta oficial complicó a Anthropic la posibilidad de mantener contratos con contratistas del gobierno, afectando su imagen y sus ingresos. Para el Pentágono, la decisión del tribunal supone una advertencia sobre los límites de sus métodos: la administración puede elegir proveedores, pero no puede usar ciertas designaciones de forma que parezcan punitivas o desproporcionadas.
Efectos prácticos y próximos pasos
En el terreno práctico, la orden no entra en vigor de inmediato: tiene un periodo de espera de una semana y, además, la otra demanda presentada por Anthropic sigue su curso ante un tribunal de apelaciones. Si la medida se mantiene hasta una decisión final favorable a la empresa, Anthropic podría recuperar clientes recelosos y argumentar que la etiqueta les causó daño económico y reputacional. Por su parte, el gobierno sostiene que actuó por razones de seguridad, alegando que la compañía podría, en el futuro, modificar sus sistemas de forma que plantearan riesgos; esa postura será uno de los puntos centrales del litigio.
Balance y perspectivas
La disputa tiene implicaciones amplias: toca la relación entre el Estado y la industria tecnológica, la libertad de las empresas para definir límites éticos en el uso de inteligencia artificial, y el alcance del poder administrativo para sancionar sin un fundamento robusto. Mientras el proceso judicial avanza, tanto Anthropic como agencias federales deberán calibrar sus pasos: la empresa busca proteger su modelo de negocio y su reputación, mientras el gobierno pretende garantizar la seguridad nacional sin vulnerar derechos constitucionales. En este escenario, la corte jugará un papel clave para delimitar hasta dónde puede llegar cada actor.

