La conversación pública sobre inteligencia artificial ha entrado en un terreno sensible: la creación de imágenes sexuales no consentidas. Una investigación publicada en PLOS One el 18/03/2026 muestra que el 55,3% de los adolescentes en Estados Unidos reportó haber utilizado al menos una vez herramientas de nudificación. Estas aplicaciones, basadas en IA generativa, pueden transformar fotografías para mostrar a una persona sin ropa; se trata de una práctica que muchos describen como invasiva y potencialmente dañina.
Al mismo tiempo, los reguladores en Europa mueven ficha: el Consejo Europeo ha propuesto cambios al EU AI Act dentro del paquete legislativo conocido como Omnibus VII, que incluyen una prohibición explícita de prácticas de IA que generen contenido sexual no consentido. Los debates abarcan desde obligaciones de registro hasta estándares para el uso de datos sensibles y plazos para sistemas considerados de alto riesgo. El choque entre innovación, libertad tecnológica y protección de derechos está ya en la primera línea del debate público y jurídico.
Encuesta entre adolescentes: alcance y matices
El estudio que presenta estos datos, liderado por Chad Steel, analiza cómo los jóvenes usan herramientas capaces de producir imágenes sexualizadas. La palabra nudificación alude precisamente a ese proceso de generar una versión desnuda de una persona a partir de fotos existentes. Más allá del porcentaje global, los hallazgos subrayan que muchos casos se originan con fotos compartidas en confianza —mensajes, álbumes escolares o perfiles en redes— y que el resultado puede parecer extremadamente realista, lo que aumenta el daño emocional y la estigmatización de las víctimas.
Resultados clave
Según el informe, una proporción significativa de adolescentes ha experimentado o participado en la producción de este tipo de imágenes, y en muchos casos el material no se identifica como generado por IA. Mientras empresas como Google y OpenAI han incorporado marcas digitales para indicar la autoría algorítmica, otras plataformas no aplican ese estándar. Ese vacío facilita la difusión de lo que se percibe como imágenes auténticas, multiplicando el impacto sobre las personas representadas.
La respuesta regulatoria en la UE
El Consejo Europeo propone introducir una prohibición clara contra herramientas que generen contenido sexual no consentido y material de abuso infantil. Estas enmiendas, parte del paquete Omnibus VII, apuntan a hacer las normas más prácticas para empresas, pero sin debilitar las salvaguardas. Entre las medidas figura la restauración del criterio de estricta necesidad para el uso de datos sensibles en procesos de detección y corrección de sesgos, así como la obligación de registrar sistemas considerados de alto riesgo en la base de datos europea de tecnologías.
Plazos y obligaciones
El texto del Consejo también ajusta los calendarios de aplicación: se proponen fechas concretas para la entrada en vigor de normas sobre sistemas de alto riesgo: el 2 de diciembre de 2027 para sistemas autónomos y el 2 de agosto de 2028 para sistemas integrados en productos. Además, se pospone la creación de regulatory sandboxes nacionales hasta diciembre de 2027 para ofrecer más tiempo a diseñar marcos técnicos y de supervisión.
Litigios, responsabilidad y prácticas empresariales
En Estados Unidos, la tecnología también está en los tribunales. Tres adolescentes de Tennessee presentaron una demanda colectiva contra xAI, alegando que modelos asociados a la compañía permitieron crear videos e imágenes sexualmente explícitos en los que aparecían cuando eran menores. La querella sostiene que el autor utilizó fotos personales obtenidas de un año escolar y redes sociales para generar material que no estaba marcado como producido por IA, y que la compañía licenció su tecnología a terceros, lo que podría diluir su responsabilidad.
Consecuencias legales y comerciales
Los demandantes reclaman indemnizaciones por daño emocional y buscan cambiar prácticas empresariales que, según su abogado, priorizan el crecimiento a costa de la seguridad. Casos previos, como demandas de figuras públicas por imágenes generadas que las representaban desnudas siendo menores, ilustran riesgos reputacionales y regulatorios. Para las empresas, adoptar marcas digitales que identifiquen contenido generado por IA, controles de acceso y auditorías de uso de datos sensibles se perfila como medidas esenciales para mitigar responsabilidades.
Reflexión final
El cruce entre la encuesta publicada el 18/03/2026, las propuestas del EU AI Act y las demandas judiciales crea un marco complejo: la tecnología avanza rápido, pero sus consecuencias sociales y legales han demostrado la necesidad de transparencia y controles más estrictos. Tanto reguladores como empresas y comunidades deben diseñar respuestas que reduzcan daños sin impedir desarrollos legítimos de IA, priorizando la protección de menores y la responsabilidad frente al uso indebido de herramientas capaces de producir material sexual no consentido.

