Menu
in

Google escanea Gmail y Drive en busca de caricaturas de abusos sexuales a menores

Google hace un escaner a Gmail y Drive en busca de caricaturas de abusos sexuales a menores, en las dos últimas décadas, los gigantes tecnológicos han tenido que hacer frente a un aluvión cada vez mayor de vídeos e imágenes de abusos sexuales a menores en sus plataformas.

Como ha descubierto recientemente Apple, es un problema difícil de resolver, en el que el escaneo de los dispositivos y las cuentas en línea de las personas en busca de contenido ilegal puede generar problemas de privacidad.

Google escanea Gmail y Drive en busca de caricaturas de abusos sexuales a menores

Pero no son sólo las fotos y vídeos explícitos de niños menores de edad lo que las mayores empresas de Silicon Valley intentan encontrar y borrar de sus servidores. También están buscando dibujos animados que muestren actos gráficos con niños, como revela una reciente orden de registro en la que se pide a Google que proporcione información sobre un sospechoso que supuestamente poseía tales animaciones.

Ese tipo de contenido es potencialmente ilegal según la legislación estadounidense y puede ser detectado por los sistemas de Google contra el material sexual infantil y la búsqueda de caricaturas de abusos sexuales (CSAM), un hecho que no se había hecho público anteriormente, según revela la orden. La compañía ha reconocido desde hace tiempo que su código puede buscar abusos a menores mediante dos tecnologías. La primera utiliza un software diseñado por YouTube que busca «hashes» de contenido ilegal previamente conocido. Estos hashes son representaciones alfanuméricas de un archivo, lo que significa que un ordenador puede escanear archivos dentro de, por ejemplo, un correo electrónico de Gmail, y emitirá un aviso si hay un archivo con el mismo hash que la foto o el vídeo ilícito, Google también utiliza herramientas de aprendizaje automático para examinar los archivos y analizarlos en busca de indicios de que son de niños maltratados.

No está claro cuál de esas dos tecnologías se utilizó a finales de 2020 en Kansas, cuando Google detectó «arte digital o dibujos animados que mostraban a niños participando en una conducta sexualmente explícita o manteniendo relaciones sexuales» dentro de una cuenta de Drive, según la orden judicial. En ella se detallan las imágenes gráficas, que incluían lo que parecían ser caricaturas sexualmente explícitas de niños menores de edad. De acuerdo con sus requisitos legales, Google entregó la información sobre lo que encontró, así como las direcciones IP utilizadas para acceder a las imágenes, al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), que luego transmitió los resultados a la unidad de Investigaciones de Seguridad Nacional del DHS.

Los investigadores utilizaron las direcciones IP proporcionadas por Google para identificar al sospechoso como el presunto propietario de las caricaturas, y buscaron en su cuenta de Google, recibiendo de vuelta información sobre los correos electrónicos enviados y recibidos por el acusado.

Parece que el sospechoso puede ser en realidad un artista conocido, como no se han presentado cargos, Forbes no publica su nombre, pero el hombre identificado en la orden judicial había ganado varios pequeños concursos de arte del Medio Oeste, y una obra de arte de los años 90 había sido mencionada en un importante periódico de la Costa Oeste.

Esto puede preocupar a algunos artistas que dibujan o representan desnudos, pero la ley en torno a las imágenes de dibujos animados está redactada de manera que ofrece cierta protección a quien comparta animaciones de niños con conductas sexuales por motivos artísticos o científicos. Un fiscal que intente condenar a quien posea ese material tendría que demostrar que las imágenes en cuestión son «obscenas» o carecen de «valor literario, artístico, político o científico serio».

Google, por su parte, ha publicado en los últimos años informes de transparencia en los que se muestra el número de veces que informa de los problemas al NCMEC. Las cifras revelan una tendencia preocupante. En los primeros seis meses de 2021, encontró más de 3,4 millones de contenidos potencialmente ilegales en 410.000 informes distintos, esta cifra es superior a los 2,9 millones de piezas en 365.000 informes de los últimos seis meses de 2020, y bastante más del doble que de enero a junio de 2020, cuando se descubrieron 1,5 millones de piezas de material CSAM y se informaron al NCMEC en 180.000 informes.

Google no proporcionó comentarios, pero señaló un blog anterior donde describió cómo busca CSAM. El Departamento de Justicia de Kansas declinó hacer comentarios, los intentos de enviar un correo electrónico a las direcciones indicadas por el acusado en la orden judicial fueron infructuosos, ya que la cuenta de Gmail parece estar desactivada.

Dado el reciente furor por la forma en que Apple planeaba escanear las imágenes del iPhone en busca de CSAM, una medida que acabó retrasando tras las críticas de que ponía en peligro la privacidad de los usuarios, la atención se ha centrado en la forma en que otros gigantes tecnológicos abordan el problema. Como Google no cifra de extremo a extremo sus herramientas de comunicación, como Gmail, o su tecnología de almacenamiento de archivos, como Drive, sigue siendo posible que la empresa tecnológica escanee en busca de contenido ilegal y como no tiene planes de introducir esas funciones, las fuerzas del orden pueden seguir confiando en que Google avise al NCMEC cuando se produzcan abusos en sus servidores.

Ya sea que la mayoría de los usuarios quiera que Google escanee las cuentas de las personas para poder ayudar a encontrar a los abusadores de menores, o que en cambio mejore la privacidad con el cifrado de extremo a extremo, la empresa con sede en Mountain View, California, tendrá que luchar con ese equilibrio a perpetuidad. Lo mismo ocurre con cualquiera de sus rivales.

LEA TAMBIÉN:

Deja una respuesta