Meta, la empresa matriz de Facebook, se encuentra en el centro de una controversia tras la revelación de documentos internos. Estos sugieren que sus líderes eran conscientes de los riesgos asociados con los chatbots dirigidos a niños y adolescentes, pero decidieron proceder con su lanzamiento sin implementar controles más estrictos. Esta situación ha llevado a una demanda presentada por el fiscal general de Nuevo México, Raúl Torrez, quien sostiene que las plataformas de Meta se han convertido en «mercados para depredadores».
Los documentos, parte de un proceso judicial, revelan comunicaciones entre el equipo de seguridad de Meta y su liderazgo, excluyendo al CEO Mark Zuckerberg. En estas comunicaciones, se expresaron preocupaciones sobre el potencial de los chatbots para facilitar interacciones sexuales inapropiadas entre adultos y menores. Ravi Sinha, responsable de la política de seguridad infantil de Meta, y Antigone Davis, jefa de seguridad global, coincidieron en la necesidad de establecer salvaguardias para los usuarios menores de 18 años.
Decisiones controvertidas sobre el lanzamiento de chatbots
A pesar de las advertencias y recomendaciones para implementar controles parentales y la opción de desactivar funciones de inteligencia artificial generativa, se alegó que Zuckerberg rechazó estas sugerencias antes de que los chatbots fueran lanzados al público. La falta de acción ha derivado en múltiples litigios contra la compañía en relación con el impacto de sus productos en el público joven, incluyendo un juicio que podría sentar un precedente sobre el diseño adictivo de plataformas como Facebook e Instagram.
El fiscal general Torrez presentó su demanda en, destacando cómo Meta ha permitido que sus plataformas sean utilizadas para actividades delictivas. Según un informe de un litigio multidistrital en California, se alegó que la política de Meta hacia los usuarios infractores era demasiado indulgente, incluso en casos de tráfico sexual de humanos. Los documentos indican que la empresa era consciente de que «millones» de adultos estaban contactando a menores a través de sus plataformas.
Reconocimientos y críticas a Meta
Un portavoz de Meta defendió a la compañía, afirmando que han realizado cambios significativos basados en la retroalimentación de los padres y la investigación sobre la seguridad de los adolescentes. Sin embargo, la respuesta de Meta a las afirmaciones de Torrez ha sido defensiva, sugiriendo que se están seleccionando documentos de manera que distorsionan la realidad. Andy Stone, portavoz de la compañía, afirmó que el caso presentado por el fiscal general es una representación errónea.
En agosto, Meta suspendió el uso de sus chatbots por parte de los adolescentes tras un informe de Reuters que reveló que sus directrices internas permitían que los chatbots mantuvieran conversaciones con contenido «sensual» o «romántico». Desde entonces, la compañía ha revisado sus políticas de seguridad, prohibiendo el contenido que facilite, anime o avalé el abuso sexual infantil, así como el rol de juego romántico que involucre a menores.
El futuro de la seguridad infantil en redes sociales
El enfoque de Torrez ha inspirado a otros fiscales generales de estado a tomar medidas legales contra plataformas de redes sociales en relación con la seguridad de los menores. En, Torrez presentó una demanda contra Snapchat, acusando a la plataforma de permitir que el sextorsión y el grooming de menores se expandieran, mientras se promocionaba como un espacio seguro para los jóvenes. La creciente presión sobre las redes sociales para garantizar un entorno seguro para los menores está llevando a un cambio en la forma en que estas plataformas operan y gestionan el contenido.
La polémica en torno a Meta no solo refleja las preocupaciones sobre la seguridad infantil, sino también el creciente escrutinio legal que enfrentan las empresas de tecnología. La situación actual subraya la necesidad urgente de desarrollar y aplicar medidas más efectivas para proteger a los menores en el entorno digital.


