in

Restricciones a la IA en Europa: por qué los dispositivos de los diputados tendrán funciones desactivadas

El organismo europeo ha optado por desactivar funciones de IA en ordenadores oficiales por miedo a la exposición de correspondencia sensible y a requerimientos legales extranjeros

restricciones a la ia en europa por que los dispositivos de los diputados tendran funciones desactivadas 1771345959

El Grupo de Tecnologías en las instituciones europeas ha decidido que, por ahora, es más prudente mantener desactivadas las funciones integradas de inteligencia artificial en los equipos de trabajo de los legisladores. Según un correo interno filtrado y recogido por medios, el departamento de informática concluye que no puede garantizar la protección total de la información que se sube a los servidores de las empresas que desarrollan estos servicios.

La medida refleja una combinación de retos técnicos y jurídicos: por un lado, la incertidumbre sobre qué datos quedan registrados y usados por los modelos; por otro, la posibilidad de que autoridades foráneas exijan acceso a esa información.

Ante ambos factores, la recomendación oficial fue clara: «es más seguro mantener esas funciones deshabilitadas».

Riesgos técnicos y legales de subir datos a chatbots

Los asistentes conversacionales populares —como modelos ofrecidos por diversas compañías— procesan textos y archivos que los usuarios cargan para generar respuestas. Eso significa que correspondencia o documentos de trabajo pueden quedar almacenados en infraestructuras externas. Además, muchas empresas emplean entradas de usuarios para mejorar sus sistemas, lo que aumenta el riesgo de que fragmentos sensibles circulen más allá de su origen.

Demandas legales y jurisdicción

Un punto crítico es la capacidad de las autoridades nacionales, especialmente de Estados Unidos, para solicitar información a las empresas tecnológicas que operan bajo su jurisdicción. En la práctica, esto puede traducirse en órdenes de entrega de datos sin intervención judicial internacional, lo que crea preocupación entre quienes manejan información oficial y confidencial en la Unión Europea.

Protección de datos en tensión

Europa dispone de marcos normativos robustos para la privacidad, pero las propuestas regulatorias recientes de la Comisión Europea han abierto un debate: algunos cambios planteados buscan facilitar que las grandes empresas entrenen modelos con datos europeos, una iniciativa que para críticos podría significar ceder frente a la influencia de los gigantes tecnológicos. Es precisamente este tira y afloja entre seguridad y competitividad lo que alimenta la cautela institucional.

Contexto geopolítico y repercusiones para proveedores

La decisión del Parlamento no surge en aislamiento. Varios Estados miembro están revaluando sus vínculos con grandes empresas tecnológicas estadounidenses, conscientes de que esas firmas siguen sujetas a leyes extraterritoriales que pueden incluir exigencias de información. Además, recientes acciones de autoridades de EE. UU., que han enviado órdenes para obtener datos de usuarios críticos con el poder político, han encendido alarmas sobre la exposición de comunicaciones políticas y activistas.

En paralelo, existen tensiones entre el sector defensa y algunos desarrolladores de modelos de lenguaje. Por ejemplo, negociaciones entre autoridades militares y proveedores se han tensado cuando las compañías imponen límites para evitar usos que consideren ligados a la vigilancia de civiles o a sistemas de armas autónomas. Estas fricciones podrían derivar en sanciones contractuales o en exclusiones de la cadena de suministro para los proveedores implicados.

Fuga de talento y debates internos en empresas de IA

La incertidumbre no solo afecta a clientes institucionales: dentro de las propias empresas de IA han emergido voces críticas. Investigadores y responsables de seguridad que han trabajado en mitigación de riesgos han decidido abandonar proyectos o compañías, alegando preocupaciones éticas y una sensación de que los valores no siempre guían las decisiones comerciales. Un ejemplo reciente fue la renuncia de un líder de seguridad que expresó alarma por el conjunto de riesgos globales —incluidos los biotecnológicos— y su intención de apartarse para dedicarse a la escritura.

Estos episodios ilustran una tensión interna: mientras las empresas promocionan medidas de seguridad y se declaran comprometidas con el beneficio público, empleados y observadores cuestionan hasta qué punto esas promesas se mantienen frente a presiones comerciales y contractuales.

Implicaciones para la confianza pública

Mantener funciones desactivadas en equipos oficiales es una señal de prudencia, pero también plantea preguntas sobre cómo compatibilizar la innovación con la protección de datos y la soberanía digital.

La conservación de confidencialidad, la claridad sobre el uso de datos y la definición de límites legales serán factores decisivos para que las administraciones —y la sociedad

¿Qué piensas?

Escrito por Staff

carrera de la ia y riesgo existencial llamados a frenar el avance descontrolado 1771342102

Carrera de la IA y riesgo existencial: llamados a frenar el avance descontrolado

asistente ai de wordpresscom edita estilos anade secciones y genera imagenes desde el editor 1771346406

Asistente AI de WordPress.com: edita estilos, añade secciones y genera imágenes desde el editor