in

Conflicto entre Anthropic y el Pentágono por restricciones de uso de la IA

Anthropic rechaza la etiqueta del Pentágono y advierte sobre precedentes legales mientras la industria tecnológica queda dividida

conflicto entre anthropic y el pentagono por restricciones de uso de la ia 1772365952

El 28/02/2026, la tensión entre una firma de inteligencia artificial y el Departamento de Defensa de Estados Unidos escaló públicamente cuando el Pentágono catalogó a Anthropic como un «riesgo para la cadena de suministro» para la seguridad nacional. La medida se enmarca en una negociación fallida sobre las condiciones de uso de su modelo Claude, en la que la empresa puso límites explícitos a aplicaciones que considerarían vigilancia doméstica masiva o el despliegue de armas totalmente autónomas.

Desde el lado corporativo, Anthropic calificó la decisión como «legalmente errónea» y advirtió que una sanción de esta naturaleza sentaría un precedente preocupante para otras compañías tecnológicas que negocian con el gobierno. En sus comunicaciones públicas, la empresa subrayó que sus reservas no impiden usos de inteligencia y contrainteligencia en el extranjero, pero rechazan aplicaciones internas que, según ellos, erosionarían libertades democráticas.

Origen del conflicto y posiciones enfrentadas

El choque proviene de diferencias sobre condiciones contractuales: el Pentágono exigió la posibilidad de «cualquier uso legal» de los modelos de IA que contrata, eliminando salvaguardas que Anthropic quiso mantener.

Para el Departamento de Defensa, esa flexibilidad es necesaria para garantizar operaciones críticas y proteger a las fuerzas armadas; para Anthropic, abrir la puerta a todos los usos legales podría facilitar la vigilancia masiva o el desarrollo de sistemas de armas sin controles humanos adecuados.

Argumentos de Anthropic

Anthropic defendió su postura con dos excepciones concretas: prohibir el empleo de Claude en programas de vigilancia nacional masiva y negar su uso en sistemas de armas completamente autónomos.

La empresa sostuvo que la tecnología aún no es lo suficientemente segura o fiable para aplicaciones de ese calado y que permitirlas iría contra sus valores fundacionales. Además, insistió en que una designación bajo la normativa 10 USC 3252 solo podría aplicarse en el marco de contratos específicos con el Departamento de Defensa y no debería impedir la provisión de servicios a otros clientes.

Argumentos del Pentágono

Desde la óptica oficial, el Pentágono sostuvo que su demanda es simple: poder utilizar modelos comerciales de IA para «todos los fines legales» que respalden misiones nacionales.

Portavoces del departamento negaron tener intención de lanzar vigilancia doméstica masiva o desplegar armas sin supervisión humana, y describieron la negativa de Anthropic como una obstaculización a la capacidad operativa del ejército. En ese sentido, afirmaron que no permitirán que una empresa dicte límites sobre decisiones operativas militares.

Repercusiones en la industria y el debate ético

La disputa no ha sido aislada: empleados y figuras de la industria tecnológica han tomado partido, con cientos de trabajadores de empresas como Google y OpenAI firmando cartas públicas en apoyo a Anthropic. Por su parte, voces influyentes señalaron que la controversia plantea preguntas sobre la relación entre compañías privadas de inteligencia artificial y entes estatales, y sobre cómo conciliar innovación, seguridad y derechos civiles.

Precedentes y acuerdos comparados

El caso toma relevancia porque otras compañías han buscado marcos contractuales distintos con el Departamento de Defensa. Por ejemplo, OpenAI comunicó que había pactado términos con el DoD que incluyen limitaciones explícitas sobre vigilancia masiva y responsabilidad humana en el uso de la fuerza, lo que algunos ejecutivos proponen como modelo para futuras negociaciones entre empresas de IA y el gobierno.

Consecuencias legales y próximas etapas

Anthropic calificó la designación como una acción que podría ser «legalmente insostenible» si se aplicara de forma amplia fuera del contexto de contratos específicos del Departamento de Defensa. La compañía también alertó sobre el impacto que una medida así tendría en la confianza de otras firmas estadounidenses al negociar con el gobierno. Mientras tanto, el Pentágono ordenó a contratistas y socios que cesaran actividades comerciales con Anthropic de inmediato, lo que añade presión operacional y empresarial en el corto plazo.

Qué observar en el futuro

Los siguientes pasos incluirán posibles impugnaciones legales de Anthropic, movimientos de aliados dentro del sector tecnológico y decisiones administrativas adicionales por parte del gobierno federal. Más allá del pleito puntual, la disputa revela un dilema mayor: cómo definir límites normativos y éticos sobre el uso militar de la IA sin frenar la innovación ni comprometer derechos fundamentales. La industria, el poder público y la sociedad civil tendrán que negociar esos límites en los próximos meses para evitar precedentes que afecten tanto a la seguridad como a las libertades.

¿Qué piensas?

Escrito por Staff

rumores indican dos tamanos y mejoras en el studio display 2 de apple 1772362369

Rumores indican dos tamaños y mejoras en el Studio Display 2 de Apple