in

Prohibición federal a Anthropic: qué implica la orden de Trump para la defensa y la industria

El presidente instruyó a las agencias federales a cesar el uso de las soluciones de Anthropic mientras crecen las tensiones entre el Pentágono y la compañía de IA

prohibicion federal a anthropic que implica la orden de trump para la defensa y la industria 1772236267

El gobierno federal anunció que las agencias deben dejar de usar de forma inmediata las herramientas de la compañía de inteligencia artificial Anthropic, tras semanas de confrontación sobre posibles aplicaciones militares. En un mensaje público, el presidente calificó la actuación de la empresa con un tono crítico y ordenó una fase de supresión de seis meses para los sistemas que actualmente dependen de la tecnología.

La medida llegó acompañada de una decisión del Pentágono para etiquetar a Anthropic como un riesgo en la cadena de suministro, una clasificación que normalmente se aplica a proveedores extranjeros considerados una amenaza para la seguridad nacional.

Ese sello impide que las fuerzas armadas y sus contratistas trabajen con la compañía mientras se revisan los términos del acuerdo.

Contexto del conflicto y principales actores

La disputa enfrenta a altos mandos del Departamento de Defensa con ejecutivos de Anthropic, incluido su director ejecutivo, Dario Amodei. El Pentágono trató de renegociar un pacto precedente para ampliar el permiso de uso hacia «todo uso lícito» de las tecnologías de IA, un cambio que Anthropic rechazó por riesgos concretos como el desarrollo de armas autónomas y la vigilancia masiva.

Anthropic firmó previamente un contrato significativo con el Departamento de Defensa y fue la primera gran empresa de IA en integrarse a sistemas clasificados mediante una versión especial de sus modelos, conocida como Claude Gov. Otras compañías como Google, OpenAI y xAI suscribieron acuerdos similares, pero Anthropic es la única que trabaja con sistemas clasificados en la actualidad.

Implicaciones operativas y tecnológicas

Actualmente, el uso de Claude Gov en entornos militares se limita a tareas administrativas y de análisis—por ejemplo, redacción de informes y resúmenes—pero también ha sido empleado en labores de análisis de inteligencia y planificación militar, según fuentes que solicitaron anonimato.

La compañía proporciona sus modelos a través de plataformas proveedoras como Palantir y la nube clasificada de Amazon.

Restricciones y preocupaciones éticas

Anthropic arguye que no puede aceptar términos que permitan el uso sin límites por el riesgo real de que la tecnología se aplique a armamento autónomo letal o a programas de vigilancia sobre ciudadanos. El debate no solo es técnico, sino ético: la firma fue fundada poniendo la seguridad de la IA en el centro de su misión y su liderazgo ha advertido públicamente del peligro de armas totalmente autónomas.

Respuesta institucional y política

Tras el anuncio presidencial, el secretario de Defensa publicó críticas en redes sociales calificando la postura de la empresa como «virtue signaling» y subrayó la necesidad de que las herramientas estén disponibles sin restricciones para usos legítimos militares. Además, la etiqueta de riesgo en la cadena de suministro bloquea el acceso militar directo a Anthropic y a sus subcontratistas.

Reacciones del sector y perspectivas

La polémica agitó a trabajadores y ejecutivos en Silicon Valley: cientos de empleados de OpenAI y Google firmaron una carta pública en apoyo a Anthropic y en crítica a las decisiones de sus propias empresas para relajar limitaciones sobre fines militares. En paralelo, el CEO de OpenAI, Sam Altman, indicó que su compañía también contempla líneas rojas como la vigilancia masiva y las armas autónomas, pero buscará fórmulas para seguir colaborando con el Pentágono.

Expertos en uso militar de la IA consideran que el conflicto refleja más una disputa de percepciones que una diferencia práctica sobre aplicaciones inmediatas. Michael Horowitz, exfuncionario del Pentágono, afirmó que muchas de las preocupaciones son hipotéticas y que, por ahora, tanto la empresa como el Departamento de Defensa coinciden en que ciertas aplicaciones no son adecuadas en este momento.

Casos y desencadenantes

El desencadenante público fue un reportaje que señaló que líderes militares habían usado Claude en la planificación de una operación contra el presidente venezolano Nicolás Maduro. Tras esa operación, surgieron intercambios internos donde empleados de Palantir y Anthropic expresaron inquietudes sobre usos concretos, aunque Anthropic negó haber tratado de interferir o de veto sobre el empleo de su tecnología.

Las conversaciones entre el Pentágono y Anthropic continuaron con reuniones de alto nivel; el secretario de Defensa dio un ultimátum para que la empresa aceptara los nuevos términos y, pese a elogiar los productos, expresó la intención de mantener la colaboración si se alcanzaba un acuerdo. La situación sigue abierta y tensiones públicas han escalado en redes sociales entre funcionarios y ejecutivos.

Actualización 2/27/26 6:30pm ET: esta crónica fue actualizada para incluir información adicional del mensaje publicado por el secretario de Defensa en la red X.

¿Qué piensas?

Escrito por Staff

como disneyland equilibra ampliaciones y simplificacion para mejorar la visita 1772232680

Cómo Disneyland equilibra ampliaciones y simplificación para mejorar la visita