in

Más de 600 empleados de Google exigen rechazar uso militar de la IA

Más de 600 trabajadores de Google firmaron una carta que solicita rechazar encargos clasificados del Pentágono para evitar daños éticos y reputacionales

Más de 600 empleados de Google exigen rechazar uso militar de la IA

Una carta interna firmada por más de 600 empleados de Google hace pública una protesta que hasta ahora era conversación interna: solicitan al CEO Sundar Pichai que la compañía no acepte trabajos clasificados con el Pentágono. En el texto, las y los firmantes advierten que el uso militar de la inteligencia artificial puede provocar la pérdida de vidas y vulnerar libertades civiles, y sostienen que quienes construyen estas herramientas tienen una responsabilidad directa para evitar usos extremadamente perjudiciales.

Qué reclaman los empleados

El núcleo del reclamo es simple y contundente: pedir el rechazo a cualquier carga de trabajo clasificada que permita al Gobierno usar sistemas de IA sin supervisión efectiva. La carta menciona que la única manera de garantizar que la tecnología no sea empleada para fines controvertidos es no exponerla a entornos donde la compañía no pueda controlar el destino final; en otras palabras, rechazar contratos que autoricen usos no auditables o decisiones operacionales cerradas al escrutinio público.

Además, subrayan el riesgo reputacional y comercial que implicaría una relación institucional que termine asociando a Google con aplicaciones militares sensibles.

Contexto y precedentes

El clamor de los empleados no aparece en vacío: empresas del sector ya han enfrentado tensiones similares. La negociación de Google con el Pentágono se enmarca en un movimiento por parte de varias compañías de entregar capacidades de modelos de lenguaje a agencias gubernamentales. En el pasado reciente, la firma Anthropic rechazó permitir cierto uso de su modelo por miedo a que fuera aprovechado para vigilancia masiva o armas autónomas y fue catalogada por el Departamento de Defensa como un “riesgo de la cadena de suministro”.

Ese antecedente generó un debate público sobre hasta dónde deben llegar las colaboraciones entre la industria privada y fuerzas armadas.

Los ejemplos de Anthropic y OpenAI

Tras el rechazo de Anthropic, OpenAI revisó cláusulas de sus acuerdos con el Gobierno para intentar limitar usos sensibles del sistema, incorporando, por ejemplo, restricciones para evitar el rastreo deliberado o la vigilancia de ciudadanos. Sin embargo, empleados y observadores críticos señalaron que los matices contractuales pueden dejar espacios para interpretaciones que permitan prácticas problemáticas.

Google, por su parte, ha sido objeto de protestas internas anteriormente; sus principios de IA cambiaron con el tiempo y algunas clausulas sobre no diseñar o desplegar tecnologías para armas o vigilancia fueron modificadas o eliminadas.

Cambios en los principios de Google

Tras la presión interna de 2018, Google incorporó principios que limitaban ciertos usos militares de la IA, pero esa redacción evolucionó. Cabe señalar que cláusulas específicas sobre no diseñar ni desplegar sistemas para vigilancia o armamento fueron eliminadas de sus políticas públicas el 4 February 2026, un hecho que los firmantes de la carta citan como evidencia de por qué deben actuar para impedir que la tecnología llegue a contextos clasificados sin garantías suficientes. Para muchos empleados, ese borrado debilita salvaguardas y aumenta la necesidad de una postura corporativa más clara.

Implicaciones y próximos pasos

Si Google procede con acuerdos que permitan al Pentágono usar modelos como Gemini en entornos clasificados, las consecuencias serían diversas: desde repercusiones internas y protestas públicas hasta efectos legales y comerciales. Los firmantes advierten que una decisión en sentido contrario dañaría la reputación de la empresa y su papel en el ecosistema tecnológico global. La compañía ha respondido públicamente defendiendo que proporcionar acceso a la API de sus modelos bajo prácticas industriales estándar es compatible con la seguridad nacional, pero para muchos trabajadores eso no basta.

Riesgos éticos y reputacionales

Los riesgos señalados incluyen la centralización del poder, errores de los modelos en contextos críticos y la posibilidad de que sistemas de IA participen en tareas de selección de objetivos o planificación de misiones sin controles humanos adecuados. En su carta, las y los empleados piden una política clara: no participar en cargas de trabajo clasificadas ni en proyectos donde Google no pueda vetar usos perjudiciales. Mientras tanto, el debate público continuará entre exigencias de seguridad nacional, responsabilidades corporativas y la presión interna de quienes diseñan la tecnología día a día.

¿Qué piensas?

Escrito por Dr.ssa Anna Vitale

Dietista y periodista. Alimentacion basada en evidencia cientifica.

Oferta limitada: Fire TV Stick 4K Max a $39.99 en Amazon

Oferta limitada: Fire TV Stick 4K Max a $39.99 en Amazon