in

OpenAI cierra acuerdo con el Pentágono con protecciones técnicas explícitas

OpenAI alcanzó un pacto con el Pentágono que incluye protecciones técnicas contra la vigilancia masiva y el uso autónomo de fuerza; el acuerdo llega tras la disputa pública con Anthropic y críticas internas en la industria

default featured image 3 1200x900 1

El anuncio de Sam Altman, CEO de OpenAI, confirmó que la compañía llegó a un acuerdo que autoriza al Departamento de Defensa a emplear sus modelos de inteligencia artificial dentro de la red clasificada de la institución, pero incorporando cláusulas y controles técnicos diseñados para limitar usos controvertidos. Esta negociación se produce en medio de una disputa pública con Anthropic, cuyo conflicto con el Pentágono había puesto en primer plano inquietudes sobre la posibilidad de que los modelos de IA se usen para vigilancia masiva o para sistemas letales autónomos.

El comunicado de Altman enfatiza que el pacto incluye principios que la empresa considera esenciales y que, según él, el Pentágono reconoce en su política.

Contexto y tensiones previas

La repercusión actual tiene raíces en meses de fricción entre empresas de IA y el Gobierno: Anthropic, creada por exinvestigadores del sector, estableció límites explícitos a ciertos usos de sus modelos, generando tensiones con el Departamento de Defensa. Ante la presión oficial para que los proveedores permitan el uso de sus tecnologías para “todos los fines lícitos”, la negociación con Anthropic se estancó y terminó en un enfrentamiento público en el que participaron empleados, autoridades y la prensa.

Además, más de 60 empleados de OpenAI y 300 de Google habían firmado cartas internas que defendían posturas críticas frente a acuerdos militares, lo que complicó aún más el debate sobre responsabilidad corporativa y transparencia.

Contenido del acuerdo y salvaguardas técnicas

Según la versión difundida por Altman, el contrato con el Pentágono incorpora salvaguardas técnicas destinadas a evitar aplicaciones que la empresa considera inaceptables. Entre estas medidas figuran prohibiciones explícitas contra la vigilancia masiva de ciudadanos y la exigencia de mantener control humano sobre el uso de la fuerza, incluyendo limitaciones sobre vehículos o armas autónomas.

OpenAI afirma que construirá capas técnicas —un safety stack propio— y desplegará ingenieros con el Pentágono para verificar comportamientos del modelo y prevenir usos no previstos. Altman también manifestó que la compañía pidió al Departamento que ofrezca las mismas condiciones a otros proveedores del sector.

Elementos técnicos y operativos

Si bien los detalles concretos del contrato no se han hecho públicos por razones de seguridad, las salvaguardas mencionadas suelen traducirse en controles de acceso, registros de auditoría, limitaciones funcionales que deshabilitan capacidades concretas y protocolos de revisión periódica.

Altman afirmó que, en la práctica, esto implicará que si un modelo se niega a cumplir una tarea por motivos de seguridad, el gobierno no forzará a OpenAI a modificarlo para realizarla. Fuentes adicionales indican que la compañía negoció la posibilidad de integrar su propio software de protección en los entornos donde se usen sus modelos.

Reacciones públicas y consecuencias estratégicas

La respuesta al acuerdo fue inmediata y polarizada. Por un lado, sectores del Gobierno y responsables de defensa celebraron la colaboración; por otro, empleados e investigadores de la industria subrayaron riesgos éticos y de gobernanza. En la disputa con Anthropic, el presidente Donald Trump criticó públicamente a la empresa rival y ordenó a agencias federales dejar de usar sus productos en un plazo de seis meses, mientras el secretario de Defensa Pete Hegseth calificó a Anthropic como un “riesgo en la cadena de suministro” y prohibió relaciones comerciales entre contratistas del Pentágono y esa compañía. Anthropic respondió que no había recibido comunicaciones directas del gobierno y anunció su intención de impugnar cualquier designación de riesgo ante los tribunales.

Implicaciones para la industria

Más allá del caso específico, el episodio marca un precedente sobre cómo las grandes empresas de tecnología negocian con el Estado. Para startups y competidores, el acuerdo pone en evidencia la tensión entre acceder a contratos gubernamentales de alto valor y proteger principios éticos corporativos. Además, la insistencia de OpenAI en que se ofrezcan los mismos términos a todos los proveedores insinúa un intento de estandarizar prácticas y evitar que las diferencias de políticas internas vacíen de contenido las exigencias de seguridad nacional. En la práctica, es probable que las salvaguardas técnicas se conviertan en un formato de negociación esperado para cualquier proveedor que aspire a trabajar con agencias sensibles.

El equilibrio entre innovación tecnológica, exigencias de seguridad y debate ético continuará definiendo la agenda pública y regulatoria en el sector.

¿Qué piensas?

Escrito por Staff

un nuevo reto para la ia el examen final de la humanidad que revela limites 1772304670

Un nuevo reto para la IA: el examen final de la humanidad que revela límites