En medio de una disputa pública y judicial, Anthropic aseguró en un escrito que no puede manipular su modelo generativo Claude una vez que las fuerzas armadas lo tienen en funcionamiento. El documento, firmado por Thiyagu Ramasamy, jefe de la oficina pública de la compañía, responde a las preocupaciones del gobierno sobre la posibilidad de que el proveedor interviniera en momentos críticos de operaciones militares. La compañía subraya que técnica y operativamente no cuenta con mecanismos para detener o alterar el servicio durante misiones activas.
La tensión entre el Pentágono y Anthropic se ha intensificado por meses, con argumentos centrados en la seguridad y el control del software. El secretario de Defensa, Pete Hegseth, llegó a calificar a la empresa como un riesgo de la cadena de suministro, una etiqueta que prohíbe temporalmente al Departamento de Defensa utilizar la tecnología, incluso a través de contratistas. Paralelamente, otras agencias federales y clientes privados han comenzado a abandonar o cancelar acuerdos con Anthropic mientras el conflicto legal avanza.
La postura de Anthropic
En el expediente judicial, Anthropic afirma que nunca ha dispuesto de una puerta trasera ni de un kill switch que permita apagar o manipular Claude en sistemas operativos ajenos. Ramasamy explicó que el proveedor no puede iniciar sesión en un sistema del gobierno para deshabilitar o cambiar el comportamiento del modelo durante una operación; según él, la arquitectura no lo permite. Además, la compañía indica que cualquier actualización significativa requeriría la aprobación del gobierno y del proveedor de nube que hospeda el servicio, en este caso Amazon Web Services, aunque en el escrito original se señaló que ese proveedor no fue nombrado explícitamente.
Limitaciones técnicas y de acceso
Anthropic también insiste en que no puede ver los prompts ni los datos que los usuarios militares introducen en Claude, y que su personal no tiene la capacidad de modificar modelos en entornos operativos controlados por el gobierno. La empresa ofreció, según los documentos, garantías contractuales para dejar claro que no busca vetar decisiones tácticas militares; en una propuesta presentada el 4 de marzo se incluyó una cláusula que, según Sarah Heck, jefa de política, explicita que la licencia no confiere control sobre la toma de decisiones operacionales del Departamento de Guerra.
La respuesta del Pentágono y el litigio
El Departamento de Defensa argumenta que no puede tolerar el riesgo de que sistemas críticos sean comprometidos en momentos decisivos. Basándose en informes sobre usos concretos —como el análisis de datos, la redacción de memorandos y la ayuda en la generación de planes de batalla— el gobierno sostiene que Anthropic podría, si quisiera, interrumpir operaciones al revocar accesos o distribuir actualizaciones problemáticas. Esa preocupación motivó la designación de riesgo de la cadena de suministro y la prohibición de uso, medida que ha llevado a la compañía a presentar dos demandas que impugnan la constitucionalidad de la decisión y a solicitar una orden de emergencia para revertirla.
Consecuencias prácticas y próximas audiencias
Mientras el litigio avanza, clientes y agencias han comenzado a cancelar contratos, y Anthropic busca una resolución judicial rápida: una de las audiencias está programada para el 24 de marzo en un tribunal federal de San Francisco, donde un juez podría dictar una medida temporal. En paralelo, el Pentágono ha enfatizado que está implementando pasos adicionales para mitigar el supuesto riesgo de la cadena de suministro, colaborando con proveedores de nube de terceros para limitar cualquier posibilidad de cambios unilaterales por parte del liderazgo de Anthropic en los sistemas ya desplegados.
Tensiones éticas y operativas
El conflicto no es únicamente técnico: también escenifica un debate sobre responsabilidad y soberanía operativa. Anthropic afirma haber estado dispuesta a incluir términos contractuales que evitaran el uso autónomo de Claude para acciones letales sin supervisión humana, pero las negociaciones se estancaron. El gobierno, por su parte, mantiene que la mera posibilidad de que un proveedor pueda interrumpir funciones críticas es un riesgo inaceptable para la defensa nacional. Esa dicotomía entre flexibilidad tecnológica y control operativo sigue alimentando tanto la disputa legal como el debate público sobre cómo integrar inteligencia artificial en contextos sensibles.
En resumen, la disputa entre Anthropic y el Pentágono combina argumentos técnicos, legales y éticos: la empresa niega la capacidad de interrumpir Claude, ofrece garantías contractuales y ha demandado al gobierno, mientras las autoridades implementan bloqueos y buscan medidas tecnológicas para asegurar sistemas críticos. El desenlace judicial previsto para el 24 de marzo será clave para definir límites y protocolos en el uso militar de modelos generativos.

