La empresa de inteligencia artificial Anthropic ha anunciado su intención de impugnar ante la justicia la decisión del Departamento de Defensa de Estados Unidos que la clasifica como un riesgo para la cadena de suministro. Según el comunicado del CEO, esta designación es legalmente insostenible y sobrepasa los límites que la compañía considera aceptables tanto en materia operativa como ética.
El conflicto se desarrolla en un contexto en el que el gobierno federal y la industria tecnológica discuten hasta qué punto las compañías deben ceder control sobre sus sistemas a fines de seguridad nacional.
En el centro está Claude, el modelo conversacional de Anthropic, y la negativa de la firma a permitir usos que impliquen vigilancia masiva o armamento totalmente autónomo.
Qué significa la designación y por qué Anthropic recurrirá
La etiqueta de riesgo para la cadena de suministro puede bloquear la capacidad de una empresa para trabajar con el Pentágono y sus contratistas. Anthropic sostiene que la carta oficial es estrecha en su alcance: aplica únicamente a usos de Claude vinculados directamente a contratos con el Departamento de Defensa y no a todas las relaciones comerciales de sus clientes.
En su defensa, la compañía argumenta que la ley exige al gobierno emplear los medios menos restrictivos para proteger la cadena de suministro, por lo que la medida debería limitarse a lo estrictamente necesario.
Argumentos legales anticipados
En su comunicación pública, el liderazgo de Anthropic adelanta que impugnará la decisión en tribunales federales, probablemente en Washington. Reconoce, no obstante, que las normas que regulan compras y seguridad nacional otorgan al Pentágono una discrecionalidad amplia, lo que complica los recursos judiciales.
Aun así, la compañía confía en que puede mostrar que la designación sobrepasa lo permitido por la ley y que no justifica restringir contratos o relaciones comerciales no relacionadas con labores del Departamento de Defensa.
El desencadenante: diferencias sobre control y un memo filtrado
Las tensiones escalaron después de que Anthropic se negara a eliminar las limitaciones de uso que había impuesto sobre su modelo. Desde la perspectiva del Pentágono, esa negativa impide el acceso sin restricciones a tecnología necesaria para fines que consideran legítimos.
En paralelo, se filtró un memo interno del CEO que criticaba acuerdos de otras empresas con el Departamento de Defensa. Anthropic dice que la nota se escribió horas después de una cadena de anuncios oficiales y lamenta la filtración, asegurando que no fue compartida de manera intencionada.
Impacto de la filtración en la negociación
La compañía reconoce que el memo filtrado dañó la interlocución con algunas autoridades y pidió disculpas por el tono del documento, calificándolo como una evaluación desactualizada y no representativa de sus posiciones cuidadosamente consideradas. Aun así, mantiene que las conversaciones que mantuvo con el Departamento en los días previos eran productivas y que la filtración no justifica la clasificación como riesgo de suministro.
Consecuencias prácticas y postura de Anthropic
anthropic afirma que la mayoría de sus clientes no se verán afectados por la designación, porque la restricción se aplica específicamente al uso de Claude en contratos con el Departamento de Defensa. Además, la empresa subraya que continuará apoyando operaciones de seguridad nacional críticas en la medida en que lo considere necesario: ha ofrecido proveer sus modelos al Departamento a coste nominal para facilitar cualquier transición operativa en zonas con actividades militares en curso.
La decisión del Pentágono también abrió una puerta inmediata: otra compañía de IA, OpenAI, firmó un acuerdo para cubrir necesidades del Departamento que Anthropic dejó restringidas, una medida que generó tensiones internas en esa otra empresa. El episodio ilustra cómo la política pública puede reordenar alianzas del sector tecnológico en cuestión de días.
Escenario para startups y lecciones estratégicas
Más allá del caso específico, el conflicto tiene implicaciones para el ecosistema de empresas de IA. Para fundadores y directivos, la lección es que el riesgo regulatorio y geopolítico debe incorporarse al diseño estratégico desde etapas tempranas: la procedencia de inversiones, la diversificación de clientes y una política de cumplimiento robusta pueden marcar la diferencia entre escalar con éxito o quedar atrapado en disputas oficiales.
En última instancia, el resultado judicial —sea favorable a Anthropic o no— marcará un precedente sobre hasta qué punto las empresas privadas pueden mantener restricciones de uso frente a demandas de seguridad nacional. El caso será observado de cerca por otras compañías que, como Anthropic, intentan conciliar valores corporativos con obligaciones y presiones gubernamentales.

