En los últimos días se produjo un choque público entre el Departamento de Defensa de Estados Unidos y la empresa de inteligencia artificial Anthropic. La disputa escaló hasta órdenes presidenciales y la posibilidad de calificaciones como riesgo en la cadena de suministro, lo que amenaza la relación contractual entre la compañía y agencias federales. Todo comenzó cuando Anthropic mantuvo su negativa a permitir que su modelo se use para vigilancia masiva de ciudadanos estadounidenses y para sistemas de armamento completamente autónomo.
La tensión obligó a actores políticos y tecnológicos a tomar posiciones públicas: desde comunicados del CEO de Anthropic, Dario Amodei, hasta declaraciones del Secretario de Defensa que vinieron acompañadas de directrices para el sector. Mientras tanto, compañías rivales y algunas aliadas empezaron a moverse para cubrir huecos en los contratos del gobierno.
Qué está en disputa
En el núcleo del conflicto están dos puntos innegociables para Anthropic: la prohibición del uso de su modelo para vigilancia doméstica masiva y la negativa a autorizar su empleo en armas letales autónomas.
El Pentágono, por su parte, exigió contratos sin esas limitaciones, argumentando necesidades operativas y de seguridad. La disputa no fue meramente técnica: implicó amenazas de sanciones contractuales, inclusiones en listas de proveedores y una orden ejecutiva presidencial que instruía la terminación de relaciones comerciales con la empresa.
Acciones políticas y repercusiones
El conflicto escaló a la esfera pública cuando el presidente de Estados Unidos comunicó la decisión de terminar contratos federales con Anthropic y autorizó un periodo de retirada escalonado de seis meses para las agencias que ya usan sus productos.
Simultáneamente, el Secretario de Defensa anunció la intención de designar a la empresa como riesgo en la cadena de suministro, bloqueando a cualquier contratista militar de mantener vínculos comerciales con ella. Estas medidas buscan forzar una reversión de las restricciones impuestas por la compañía.
Respuesta de Anthropic y el sector
Dario Amodei reafirmó públicamente que la empresa no cedería en sus dos líneas rojas éticas y ofreció colaborar en una transición ordenada en caso de que el Pentágono decidiera desvincularse.
Mientras tanto, otras empresas del sector se vieron empujadas a pronunciarse: algunos competidores ofrecieron apoyo a la postura de Anthropic, y otras firmas movieron fichas para ocupar el espacio contractual dejado por la disputa.
Movimientos de la industria y alternativas
En cuestión de horas, actores del ecosistema tecnológico buscaron rellenar el vacío que amenazaba con dejar Anthropic en el mercado federal. Una compañía rival comunicó un acuerdo preliminar con el Departamento de Defensa, asegurando que incorporaría salvaguardas similares a las defendidas por Anthropic —la limitación de usos para vigilancia doméstica y la prohibición de armas autónomas—, según informaron fuentes periodísticas. Estas maniobras indican una carrera por consolidar contratos clave y definir las normas de uso de modelos avanzados.
Impacto en contratos y relaciones
Anthropic, OpenAI y otros proveedores habían recibido adjudicaciones del Departamento de Defensa en meses previos. La disputa amenaza no solo a un contrato puntual, sino a la arquitectura de proveedores que sirve a redes clasificadas y operaciones sensibles. La designación como riesgo en la cadena de suministro tiene efectos colaterales: proveedores asociados pueden verse obligados a cortar lazos, y las empresas del sector podrían contemplar ajustes en sus cláusulas de seguridad y cumplimiento.
Implicaciones éticas y normativas
El enfrentamiento trasciende un conflicto comercial: confronta dos visiones sobre quién determina los límites del uso militar de la inteligencia artificial. Por un lado, entidades públicas que reclaman flexibilidad operacional; por otro, empresas que adoptan principios de seguridad responsable para evitar usos que perciben como riesgosos para derechos civiles y para la vida humana. La ausencia de un marco regulatorio claro expone la fragilidad de decidir estos límites en negociaciones secretas.
¿Qué sigue?
La disputa probablemente dará lugar a más declaraciones públicas, acuerdos alternativos y debates legislativos. Si la cuestión se resuelve por vías contractuales y administrativas, permanecerá la pregunta sobre la gobernanza: ¿debe el Estado, el Congreso o las propias empresas fijar las fronteras éticas de la tecnología? Mientras tanto, el mercado y los militares avanzan en paralelo con decisiones que definirán precedentes para el uso de modelos de IA en contextos sensibles.

