Anthropic presentó ante un tribunal federal de California dos declaraciones juradas con las que intenta desacreditar la postura del Departamento de Defensa, que había calificado a la compañía como un riesgo inaceptable para la seguridad nacional. Los documentos, entregados junto con el escrito de respuesta de la empresa, fueron presentados tarde un viernes y anticipan una audiencia programada para March 24 ante la jueza Rita Lin en San Francisco. En esos papeles la compañía sostiene que las acusaciones del gobierno parten de malentendidos técnicos y de reclamos que, según Anthropic, nunca se plantearon durante meses de negociación.
La disputa pública escaló tras declaraciones a fines de febrero en las que el presidente Trump y el secretario de Defensa, Pete Hegseth, anunciaron el corte de relaciones con Anthropic después de que la empresa rechazara autorizar usos militares sin restricciones. Las dos personas que firmaron las declaraciones son Sarah Heck, jefa de política de Anthropic, y Thiyagu Ramasamy, responsable del sector público. Ambos detallan, desde sus respectivas competencias, por qué la etiqueta y algunas alegaciones del gobierno no reflejan la realidad de las conversaciones ni las capacidades técnicas del servicio.
Qué relatan las declaraciones y la cronología de comunicaciones
En su declaración, Sarah Heck rebate de forma contundente la idea de que Anthropic pretendiera un papel de aprobación sobre operaciones militares: esa exigencia, dice, nunca se planteó durante las negociaciones. Heck adjunta además un correo fechado March 4 en el que el subsecretario Emil Michael le escribió a Dario Amodei que ambas partes estaban «muy cerca» en los dos puntos que ahora el gobierno señala como críticos: el uso en armas autónomas y la vigilancia masiva.
A continuación de ese correo, Amodei publicó declaraciones sobre conversaciones productivas el March 5, mientras Michael hizo posteos públicos y entrevistas con mensajes contradictorios en los días posteriores, lo que en el relato de Heck cuestiona la narrativa oficial sobre cuándo y cómo se deterioraron las negociaciones.
Negociaciones y novedades en la exposición pública
Heck subraya que ciertas preocupaciones —por ejemplo, la posibilidad de que Anthropic desactive o modifique sus modelos en pleno uso militar— no surgieron durante las reuniones sino que aparecieron por primera vez en los escritos judiciales del gobierno, sin que la compañía hubiese tenido oportunidad real de contestarlas en aquel ámbito.
Esa secuencia pone en tensión la coherencia entre la comunicación privada y la pública del Pentágono, según la versión presentada por Anthropic.
Los argumentos técnicos frente a las acusaciones
Thiyagu Ramasamy aborda el núcleo técnico de la controversia. Exingeniero de Amazon Web Services para despliegues gubernamentales, Ramasamy explica que una vez que Claude se instala dentro de un sistema asegurado y air-gapped operado por un tercero, Anthropic carece de acceso remoto capaz de detener o alterar el servicio. En términos prácticos, sostiene, no existe un «kill switch» ni una puerta trasera que permita cambiar el comportamiento del modelo durante una operación; cualquier actualización exige aprobación explícita del cliente y acción del proveedor de la nube. Asimismo, afirma que la empresa no puede ver los prompts que los usuarios gubernamentales introducen en el sistema.
Control de acceso y personal con habilitación
Ramasamy también responde a la objeción sobre la contratación de extranjeros: indica que empleados de Anthropic han pasado por procesos de vigilancia y habilitación de seguridad del gobierno estadounidense, y que, según su conocimiento, la compañía es una de las pocas en las que personal con autorizaciones contribuyó directamente en la construcción de modelos destinados a entornos clasificados. Este punto técnico y de personal respalda su argumento de que la supuesta capacidad de sabotaje es inviable desde el plano operativo.
Repercusiones legales y próximos pasos
En lo jurídico, Anthropic alega que la designación de riesgo de la cadena de suministro constituye una represalia por sus posturas públicas sobre seguridad en IA y vulneraría el First Amendment. El gobierno, por su parte, presentó un documento de 40 páginas rechazando ese encuadre: considera que la negativa de Anthropic a permitir ciertos usos militares fue una decisión comercial, no una expresión protegida, y que la etiqueta responde a un juicio legítimo de seguridad nacional. Paralelamente, la compañía enfrenta otra controversia con Reddit: un juez federal dictaminó de forma preliminar que la demanda sobre el uso de contenidos para entrenamiento debería volver a la corte estatal, decisión que también tendrá seguimiento en una audiencia el mismo día de la cita federal.
Mientras se acerca la vista del March 24, lo que está en juego incluye contratos, reputación y precedentes legales sobre el control de tecnologías de IA en entornos sensibles. Las declaraciones juradas de Heck y Ramasamy, los correos intercambiados y las discrepancias públicas entre funcionarios del Pentágono y representantes de Anthropic conforman el material que la jueza deberá evaluar. Independientemente del fallo, este caso marcará un punto de referencia en cómo se equilibran la autonomía empresarial, la seguridad nacional y la gobernanza de la inteligencia artificial.

