in

Conflicto legal entre Anthropic y el Departamento de Guerra tras la designación de riesgo de suministro

La negativa del tribunal de apelaciones complica la batalla legal entre Anthropic y el Departamento de Guerra por el uso de Claude en sistemas sensibles del gobierno

Conflicto legal entre Anthropic y el Departamento de Guerra tras la designación de riesgo de suministro

En un conflicto judicial que mezcla seguridad nacional, tecnología y prerrogativas ejecutivas, la corte de apelaciones de Washington rechazó una solicitud para suspender la designación que califica a Anthropic como un riesgo de la cadena de suministro. La medida del tribunal contrasta con una orden previa en California que había exigido al gobierno retirar esa etiqueta, y la existencia de dos fallos preliminares opuestos plantea interrogantes sobre cómo se resolverá el caso.

La controversia gira alrededor del uso de Claude, la familia de modelos de IA desarrollada por Anthropic, y de si el gobierno puede excluir a un proveedor nacional por negar permisos de uso que el Departamento considera esenciales. La designación bajo leyes de suministro motivó la retirada de contratos y la prohibición a contratistas de integrar a Anthropic en trabajos para el gobierno.

Qué resolvió la corte de apelaciones

El panel de apelaciones —compuesto por las juezas Karen LeCraft Henderson y Neomi Rao y el juez Gregory Katsas— rechazó la petición de suspensión. Los magistrados enfatizaron que permitirla obligaría a las fuerzas armadas a seguir tratando con un proveedor no deseado durante un conflicto activo, algo que el tribunal consideró una intromisión judicial significativa en operaciones militares. En su razonamiento, la corte priorizó el interés público y la necesidad del gobierno de contar con acceso a tecnologías críticas sin que el tribunal prolongue el uso de un proveedor polémico.

Factores legales considerados

Para decidir sobre una suspensión el tribunal aplicó cuatro factores: (1) la probabilidad de éxito en el fondo, (2) el daño irreparable para el solicitante, (3) el perjuicio para la autoridad gubernamental y (4) el interés público. Aunque reconocieron que Anthropic podría sufrir pérdidas económicas —y que algunos de esos efectos pueden considerarse irreparables—, los jueces concluyeron que el equilibrio de equidades favorecía al gobierno por los riesgos a la operatividad militar.

Choque con la decisión de San Francisco y el estado del litigio

En otra sede, un juez federal en San Francisco concedió la semana anterior una orden preliminar que obligaba a retirar la etiqueta de riesgo, al considerar que el Departamento había actuado probablemente de mala fe y que la medida respondía en parte a la negativa de Anthropic a autorizar ciertos usos. Ese fallo llevó a que el gobierno restableciera el acceso a Claude dentro del Pentágono y en otras agencias federales, lo que ahora queda en tensión con la resolución de la corte de apelaciones.

Actores y declaraciones públicas

Anthropic ha alegado pérdidas comerciales por la designación y ha mantenido que la censura responde a su negativa a permitir que Claude sea empleado en operaciones letales sin supervisión humana. La compañía, con su CEO Dario Amodei como voz pública, sostiene que las designaciones fueron ilegales y confía en que los tribunales lo determinen. Desde el lado gubernamental, el fiscal general interino Todd Blanche celebró la decisión en X y la calificó como clave para la preparación militar, subrayando que el control de operaciones corresponde al Comandante en Jefe y al Departamento de Guerra.

Implicaciones tecnológicas y de política pública

El caso plantea preguntas sobre el alcance del poder ejecutivo frente a empresas tecnológicas y sobre cómo se integran modelos de IA en sistemas de defensa. Algunos expertos advierten que acciones como ésta pueden enfriar el debate profesional sobre la fiabilidad y los límites de los sistemas de inteligencia artificial, mientras que otros sostienen que el gobierno debe garantizar acceso irrestricto a herramientas que considere necesarias para operaciones sensibles.

Transición y transparencia

Las partes han ofrecido pocos detalles sobre el uso específico de Claude en operaciones militares o sobre el avance en la migración hacia alternativas como modelos de Google DeepMind u OpenAI. El Departamento ha indicado que toma medidas para evitar que Anthropic pueda interferir intencionalmente en la retirada de sus sistemas y actualizaciones, aunque los pormenores no se han hecho públicos.

El litigio seguirá su curso con una agenda acelerada: la corte de apelaciones fijó audiencias orales para el 19 de mayo y ordenó un calendario de presentación breve de escritos, mientras se discuten cuestiones jurisdiccionales relacionadas con 41 U.S.C. §4713 y 41 U.S.C. §1327. Las decisiones finales podrían tardar meses, pero lo que está en juego —la manera en que el gobierno compra, restringe y usa tecnologías de IA— tendrá efectos duraderos para la industria y la seguridad nacional.

¿Qué piensas?

Escrito por Dr. Luca Ferretti

Abogado especializado en el punto donde el derecho y la tecnología chocan. Ha defendido startups de demandas que podían hundirlas y ayudado a empresas a no meterse en problemas con el GDPR. Traduce el lenguaje legal en español comprensible.

Cómo Garmin integra datos de temperatura con Natural Cycles para el seguimiento de la fertilidad

Cómo Garmin integra datos de temperatura con Natural Cycles para el seguimiento de la fertilidad