Durante el primer semestre de 2025, OpenAI ha registrado un aumento significativo en los informes de incidentes relacionados con explotación infantil. La compañía envió 80 veces más alertas al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) en comparación con el mismo periodo del año anterior. Este incremento no solo refleja el avance en las capacidades de la empresa, sino también la creciente preocupación por la presencia de contenido inapropiado en las plataformas digitales.
Contexto y significado de los informes
El NCMEC gestiona una CyberTipline, un sistema establecido por el Congreso para recibir reportes sobre material de abuso sexual infantil (CSAM) y otras formas de explotación. Las empresas tienen la obligación legal de informar cualquier señal de explotación infantil a través de este canal. Cada reporte es evaluado por el NCMEC y posteriormente se envía a la autoridad de aplicación de la ley correspondiente para su investigación.
Análisis de datos y tendencias
El aumento en el número de informes no siempre refleja un incremento real en la actividad delictiva. A menudo, esto puede deberse a cambios en los algoritmos de moderación de contenido o en los criterios que las plataformas utilizan para decidir qué constituye un informe necesario. Por ejemplo, un solo contenido puede ser reportado múltiples veces, y un informe puede abarcar varios contenidos.
OpenAI y otras plataformas ofrecen datos tanto sobre la cantidad de informes como sobre el total de contenidos involucrados, lo que proporciona una visión más precisa de la situación.
Inversiones y cambios en OpenAI
La portavoz de OpenAI, Gaby Raila, ha confirmado que la compañía realizó inversiones significativas hacia finales de 2025. Estas medidas buscan mejorar su capacidad para revisar y gestionar los informes, en respuesta al creciente número de usuarios.
Este aumento en los informes de 2025 se relaciona con el lanzamiento de nuevos productos que permiten la carga de imágenes, así como con la creciente popularidad de sus aplicaciones. En agosto de 2025, Nick Turley, vicepresidente de ChatGPT, reveló que el número de usuarios activos semanales había cuadruplicado en comparación con el año anterior.
Comparativa de datos
En la primera mitad de 2025, OpenAI reportó 75,027 avisos a la CyberTipline, coincidiendo casi exactamente con los 74,559 casos de contenido que motivaron esos informes. Este número contrasta notablemente con el primer semestre de 2025, cuando la compañía solo envió 947 alertas sobre 3,252 piezas de contenido. Esta diferencia resalta un aumento significativo en las notificaciones enviadas.
Preocupaciones sobre la seguridad infantil
A lo largo de 2025, OpenAI y otras empresas de inteligencia artificial han estado bajo un creciente escrutinio en torno a la seguridad infantil. Un grupo de 44 fiscales generales estatales ha enviado una carta a diversas firmas de IA, incluyendo OpenAI y Google, advirtiendo que tomarán medidas para proteger a los niños de la explotación derivada de productos de inteligencia artificial. Estas preocupaciones se intensificaron con múltiples demandas en contra de OpenAI y Character.AI, que alegan que sus chatbots han contribuido a tragedias relacionadas con menores.
Nuevas medidas de seguridad
Ante los desafíos actuales, OpenAI ha puesto en marcha diversas herramientas enfocadas en la seguridad. En septiembre de 2025, la empresa lanzó funciones de control parental para ChatGPT, permitiendo a los padres gestionar las configuraciones de las cuentas de sus hijos adolescentes. Esta nueva funcionalidad incluye la opción de desactivar el modo de voz, controlar la generación de imágenes y recibir alertas si se detectan conversaciones que sugieren autolesiones. Además, OpenAI ha asumido el compromiso de notificar a las autoridades en situaciones de amenazas inminentes a la vida.
En octubre de 2025, OpenAI alcanzó un acuerdo con el Departamento de Justicia de California, comprometiéndose a implementar medidas para mitigar los riesgos asociados con el uso de la inteligencia artificial. Este acuerdo incluye la publicación de un Plan de Seguridad para Adolescentes, en el que la empresa detalla su compromiso de mejorar continuamente su capacidad para detectar y reportar material de abuso infantil.
El aumento en los informes de explotación infantil por parte de OpenAI no solo refleja el crecimiento de la empresa, sino también la necesidad urgente de abordar de manera activa los problemas de seguridad en el entorno digital. ¿Cómo se están preparando las empresas para enfrentar estos desafíos? La proactividad en este ámbito es crucial para construir un entorno más seguro para todos.

