El 26/03/2026 se produjo un giro en la disputa entre el gobierno federal y la empresa de inteligencia artificial Anthropic. Un tribunal de California concedió una inhibición preliminar que impide, de forma temporal, que las agencias federales ejecuten la orden administrativa que calificó a la compañía como un riesgo de la cadena de suministro. La medida vuelve a permitir que Anthropic continúe ofreciendo servicios a entidades gubernamentales mientras la corte evalúa los argumentos legales.
En el núcleo del conflicto está la negativa pública de Anthropic a autorizar usos militares de su modelo Claude para armas autónomas letales o para un programa de vigilancia masiva nacional. El Ejecutivo respondió con una etiqueta que barría su acceso a contratos de defensa, una medida que la empresa impugnó en tribunales por considerarla arbitraria y dañina para la competencia y la innovación tecnológica.
Fundamentos de la decisión judicial
La juez Rita Lin argumentó en su resolución que la designación carece de base legal sólida y que los procedimientos empleados contra Anthropic fueron insuficientes. En la orden se subraya que no hubo un proceso de notificación ni una oportunidad real para que la compañía objetara la calificación, lo que convierte la acción administrativa en una medida susceptible de ser revertida. La sentencia destacó también preocupaciones constitucionales, señalando que castigar a la empresa por expresar reservas sobre el uso de su tecnología puede constituir una forma de represalia por la libertad de expresión.
Alcance y efectos inmediatos
La inhibición dictada por la juez frena la aplicación de la etiqueta durante un período limitado —la orden quedó pausada por siete días— lo que da margen a la administración para presentar recursos. Mientras tanto, el fallo restituye el status quo y evita que otras agencias federales y contratistas cancelen relaciones comerciales con Anthropic de manera automática. La corte dejó claro que la decisión no obliga a los departamentos a contratar a la compañía, sino que impide que la excluyan de forma sumaria sin respetar normas y garantías legales.
Garantías procesales y apelación
El tribunal señaló la ausencia de un proceso de preaviso y de mecanismos posteriores que permitan a Anthropic defenderse antes de sufrir la exclusión. Esa falta de procedimiento fue un elemento clave para que la jueza considerara que la empresa probablemente tendrá éxito respecto a sus reclamaciones legales en instancias superiores. La pausa de siete días sirve, además, como ventana para que el Gobierno evalúe y, si procede, recurra la decisión ante tribunales de apelación.
Reacciones de las partes
Anthropic celebró la resolución y la describió como un paso necesario para proteger a la compañía, sus clientes y socios. En su comunicado, la firma reiteró su intención de colaborar con las autoridades para que la tecnología beneficie a la sociedad bajo estándares de seguridad y responsabilidad. Por su parte, la Secretaría de Defensa y la Casa Blanca no emitieron respuestas inmediatas al fallo público.
Contexto político y tecnológico
La controversia comenzó por la decisión administrativa del Ejecutivo y del entonces secretario de Defensa, que etiquetaron a Anthropic como un riesgo tras la negativa de la compañía a consentir ciertos usos. La medida generó debates sobre cómo equilibrar la seguridad nacional, la innovación en inteligencia artificial y las garantías procesales para empresas tecnológicas. Además, el caso llamó la atención porque Anthropic ya había sido aprobada para operar en redes clasificadas del Departamento de Defensa, lo que complica la lectura de la acción administrativa como una mera cuestión técnica.
Implicaciones a futuro
La resolución provisional no cierra el asunto: abre una fase judicial en la que se discutirán el fondo y los procedimientos utilizados por el Gobierno. Si la apelación sigue adelante, los tribunales superiores deberán sopesar el equilibrio entre prerrogativas ejecutivas en materia de seguridad y las protecciones que asisten a las empresas. Para la industria, el caso puede sentar precedentes sobre cómo deben abordarse los límites del uso militar de tecnologías comerciales y la protección de la competencia en un mercado de rápido desarrollo.
En definitiva, la decisión del tribunal representa una pausa en un conflicto que combina cuestiones legales, éticas y estratégicas sobre el papel de la IA en actividades públicas. Mientras se resuelven los recursos, Anthropic podrá continuar sus contratos y negociaciones con el gobierno, aunque la disputa promete seguir marcando la agenda sobre regulación y responsabilidad en el sector tecnológico.

