La relación entre un laboratorio de inteligencia artificial y el aparato militar estadounidense ha pasado de colaboración prudente a enfrentamiento público. Anthropic, la compañía detrás del chatbot Claude, fue la primera empresa de su sector autorizada para operar en redes clasificadas, una puerta que la conectó con agencias de defensa mediante alianzas como la que estableció con Palantir en 2026. Sin embargo, en las últimas semanas el Pentágono ha puesto en revisión esa relación, en parte por discrepancias sobre usos potenciales de la tecnología en operaciones que podrían implicar fuerza letal.
Este choque plantea preguntas esenciales: ¿pueden y deben las empresas de frontera imponer restricciones éticas sobre cómo se emplean sus modelos? ¿Qué ocurre cuando la defensa nacional exige flexibilidad operacional? Y, de forma más amplia, ¿qué impacto tendrán estas disputas en la gobernanza de la inteligencia artificial?
Origen del conflicto y elementos clave
El foco del conflicto incluye informes sobre el uso de servicios vinculados a Anthropic en una operación destinada a capturar al presidente de Venezuela, Nicolás Maduro.
Aunque la compañía no confirma ni niega la participación de Claude en esa misión —citando la naturaleza clasificada de acciones militares—, fuentes indican que hubo interrogantes internos sobre la adecuación del uso. Al mismo tiempo, el Pentágono ha señalado que revisará su vínculo con Anthropic y ha puesto sobre la mesa la posibilidad de etiquetar a la empresa como un riesgo para la cadena de suministro, una medida que puede aislarla en contratos de defensa.
La tensión no es sólo episódica: Anthropic firmó en julio de 2026 un contrato marco con el Departamento de Defensa por hasta $200 millones, dentro de una ronda en la que también participaron otras empresas de IA. Además, la empresa ha buscado reforzar sus credenciales en seguridad. En agosto de 2026 constituyó un consejo asesor para seguridad nacional y sector público con exfuncionarios, y en mayo de 2026 presentó Claude 4, reforzando su apuesta por aplicaciones corporativas y para organismos estatales.
Valores empresariales frente a exigencias del Pentágono
Anthropic ha hecho de la protección frente a usos dañinos su bandera: prohíbe, según declara, la implementación de sus modelos en armamento autónomo y en programas de vigilancia doméstica. Su objetivo ha sido integrar guardrails tan robustos que limiten la explotación maliciosa. No obstante, altos mandos del Departamento de Defensa han expresado que los proveedores no pueden imponer restricciones que limiten la capacidad del ejército para actuar. Emil Michael, actual subsecretario técnico del Pentágono, llegó a cuestionar retóricamente cómo una compañía impediría que sistemas militares respondieran a amenazas inmediatas, ilustrando el desacuerdo en términos prácticos.
Ese choque de prioridades coloca a la industria ante un dilema: colaborar plenamente con la defensa para acceder a contratos y datos sensibles, o mantener códigos éticos y perder oportunidades comerciales. Empresas como OpenAI y Google también buscan elevar sus autorizaciones para trabajo clasificado, mientras que la Administración exige cláusulas que permitan «cualquier uso legal» de tecnologías adquiridas por la defensa.
Repercusiones estratégicas
Si el gobierno obliga a eliminar guardas específicas de uso, la consecuencia podría ser doble. Por un lado, facilitan herramientas de punta a las fuerzas armadas; por otro, fomentan una dinámica de carrera armamentista algorítmica donde adversarios desarrollarán sus propias versiones militares de IA. Además, la integración de modelos en prácticas letales erosiona esfuerzos previos para construir normas internacionales que limiten usos peligrosos. La tensión también afecta la confianza pública en la industria: ¿puede una empresa que promete «seguridad» colaborar sin fisuras en conflictos armados?
Escenarios y preguntas abiertas
Existen varias vías por las que este pulso puede desenlazarse. Una posibilidad es que Anthropic ceda y modifique sus condiciones para mantener contratos —abriendo la puerta a aplicaciones más amplias en defensa—. Otra es que el Pentágono aplique sanciones comerciales, incluidas designaciones que limiten la adopción de sus modelos por parte de contratistas militares. Alternativamente, el choque puede catalizar debates regulatorios más fuertes sobre límites de uso y transparencia en acuerdos entre empresas de IA y gobiernos.
Las decisiones que tomen ambos actores no sólo determinarán el acceso de los militares a capacidades avanzadas, sino que también influirán en cómo se define la responsabilidad ética de quienes crean sistemas capaces de influir en la vida y la muerte.
Reflexión final
Mientras los laboratorios de IA avanzan hacia sistemas más potentes, la presión por aceptar condiciones de uso sin restricciones crecerá. Sin embargo, ifrar la seguridad como principio operativo y permitir a la vez su uso en contextos letales plantea un conflicto conceptual profundo. La resolución de esta disputa puede marcar un precedente sobre si la arquitectura de las futuras tecnologías se diseña pensando primero en la protección humana o en la eficacia militar.

