La polémica reciente que rodea a Anthropic y su relación con el gobierno estadounidense ha reaparecido con una dimensión personal: una entrevista publicada en la que Emil Michael, actual alto responsable tecnológico del Departamento de Defensa, recuerda con dureza su salida de Uber y conecta aquel episodio con la defensa de la postura del Pentágono ante los proveedores de modelos de lenguaje. En la charla, Michael mezcla críticas a inversores del ecosistema y explicaciones sobre por qué el DoD no puede aceptar que una compañía imponga reglas propias sobre el uso de su tecnología.
Al mismo tiempo, la disputa entre el DoD y Anthropic se ha trasladado a los tribunales tras la clasificación de la empresa como «supply-chain risk» y el intercambio de escritos jurídicos. El conflicto combina argumentos técnicos —como la posibilidad de que un proveedor altere o desactive su tecnología— con preocupaciones geopolíticas sobre la replicación de modelos por actores extranjeros y las implicaciones de políticas corporativas que limitan usos militares.
Rencillas personales y consecuencias industriales
La entrevista recupera episodios de 2017 cuando Michael dimitió de Uber poco antes que Travis Kalanick, en medio de una investigación sobre la cultura interna. Ambos consideraban que la apuesta por la conducción autónoma era la vía para transformar la empresa; su salida precedió a la venta de la unidad a Aurora en 2026, una decisión que muchos vieron como el fin de esa ambición.
Michael y Kalanick sostienen que los inversores privilegiaron ganancias inmediatas sobre el desarrollo a largo plazo de un producto que ahora muestra su valor con el despliegue de robotaxis por parte de competidores como Waymo.
El enfrentamiento entre el Pentágono y Anthropic
Desde su puesto en el Departamento de Defensa, Michael relata que Anthropic figura entre los pocos proveedores aprobados para ciertos proyectos, en parte gracias a integraciones con Palantir.
Su argumento central es que el gobierno no puede aceptar que una firma añada capas de condiciones por encima de las leyes y las normas internas; usa la analogía de que comprar un paquete de software no debería implicar que el proveedor dicte cómo se escribe un documento. Además, plantea riesgos técnicos: intervenciones externas que replicaran capacidades completas del modelo mediante técnicas de distillation, lo que, según él, podría favorecer a actores con políticas de fusión civil-militar como China.
Argumentos técnicos y legales en disputa
El Pentágono formalizó sus temores en un escrito judicial donde considera que dar acceso a Anthropic a infraestructuras militares introduce un riesgo inaceptable para la cadena de suministro. Entre los puntos clave figura la posibilidad hipotética de que la empresa pudiera limitar o alterar el comportamiento de su modelo durante operaciones sensibles. Anthropic respondió con declaraciones juradas y documentos técnicos que niegan esas capacidades de interferencia, sosteniendo que las preocupaciones del gobierno se basan en interpretaciones técnicas erróneas o en escenarios que no fueron planteados durante las negociaciones previas.
Contexto y antecedentes de la disputa
Anthropic nació tras salidas de ejecutivos de OpenAI y se presentó como una alternativa dedicada a la seguridad; su «IA constitucional» incluye límites explícitos para evitar usos militares o dañinos. Paradójicamente, la compañía llegó en julio de 2026 a un acuerdo inicial para introducir su asistente Claude en flujos de trabajo del DoD a través de Palantir, pero las tensiones sobre las restricciones éticas han bloqueado la renovación. Informes periodísticos han señalado además un uso operativo de esas herramientas en escenarios bélicos recientes, lo que complejiza aún más el debate entre ética corporativa y necesidades militares.
Implicaciones estratégicas y el futuro del control tecnológico
La polémica encierra dilemas que superan personalidades: cómo equilibrar la seguridad nacional con decisiones empresariales de responsabilidad social, y cómo evaluar riesgos técnicos como la distillation frente a la soberanía operativa del Estado. El caso también reaviva discusiones sobre políticas públicas: la presión para priorizar competitividad frente a marcos éticos o la tentación de sancionar empresas que no se alinean con objetivos gubernamentales. En medio de esa encrucijada, figuras como Michael no solo defienden medidas de seguridad sino que recuperan relatos personales de agravio que condicionan su mirada pública.
Qué está en juego
El proceso judicial y las negociaciones marcarán precedentes sobre el acceso del gobierno a herramientas de Inteligencia artificial y sobre la capacidad de las empresas para establecer límites de uso. Además, el episodio recuerda que rencores empresariales, como los que expresa Michael sobre su salida de Uber, pueden influir en debates públicos sobre tecnología y seguridad. Mientras la disputa avanza, quedan en el aire preguntas sobre confianza, control técnico y el equilibrio entre principios éticos y exigencias estratégicas.

