Recientemente, OpenAI ha dado a conocer que durante el primer semestre de 2025, la compañía reportó 80 veces más incidentes relacionados con la explotación infantil al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) en comparación con el mismo periodo del año anterior. Este notable aumento ha captado la atención de los medios y de las autoridades, dada su importancia en el ámbito de la seguridad infantil.
El NCMEC gestiona un sistema llamado CyberTipline, un canal autorizado por el Congreso para registrar materiales de abuso sexual infantil (CSAM) y otras formas de explotación.
Las empresas, incluida OpenAI, están legalmente obligadas a reportar cualquier sospecha de explotación infantil a esta plataforma. Posteriormente, el NCMEC revisa los casos y los remite a las agencias de la ley correspondientes para su investigación.
Análisis de cifras y tendencias
Las estadísticas del NCMEC pueden resultar complicadas de analizar. Un aumento en el número de reportes no siempre indica un incremento real en actividades delictivas. A menudo, este fenómeno refleja cambios en la moderación automatizada de las plataformas o en sus criterios sobre qué constituye un informe necesario.
Por ello, es crucial considerar estos factores al interpretar los datos.
Detalles sobre los informes de OpenAI
En el primer semestre de 2025, OpenAI reportó un total de 75,027 incidentes, una cifra que casi coincide con el contenido involucrado en esos reportes, que fue de 74,559. En contraste, durante la primera mitad de 2024, la cantidad de informes fue significativamente menor, con solo 947 reportes sobre 3,252 piezas de contenido.
Este crecimiento exponencial pone de manifiesto una tendencia preocupante.
El contenido reportado abarca diversos tipos de interacciones. OpenAI ha afirmado que informa todas las instancias de CSAM, incluyendo tanto las cargas como las solicitudes de contenido inapropiado. Además de su aplicación ChatGPT, que permite a los usuarios subir archivos y generar contenido, OpenAI proporciona acceso a sus modelos a través de una API.
Implicaciones y reacciones ante el aumento de informes
El notable ascenso en los informes de OpenAI se alinea con un patrón más amplio que el NCMEC ha observado en su plataforma en relación con la inteligencia artificial generativa. Según sus análisis, los informes relacionados con la inteligencia artificial mostraron un incremento del 1,325 por ciento entre 2025 y 2025. Sin embargo, el NCMEC aún no ha publicado datos para el año 2025, lo que genera incertidumbres sobre las tendencias actuales.
Respuesta de las autoridades y acciones de OpenAI
En este contexto, OpenAI se encuentra bajo un creciente escrutinio por parte de las autoridades estatales y nacionales. En el verano de 2025, un grupo de 44 fiscales generales de distintos estados envió una carta conjunta a varias compañías de inteligencia artificial, incluida OpenAI. En ella, reafirmaron su compromiso de utilizar todos los recursos disponibles para proteger a los niños de la explotación.
Además, OpenAI ha sido objeto de demandas legales por parte de familias que aseguran que sus chatbots han contribuido a tragedias relacionadas con la seguridad infantil. Este escenario plantea serias interrogantes sobre el impacto y la responsabilidad de la tecnología en la vida de los más vulnerables.
Ante las crecientes preocupaciones sobre la seguridad en el uso de la inteligencia artificial, OpenAI ha implementado nuevas herramientas enfocadas en este aspecto. En septiembre, la empresa lanzó características en ChatGPT, incluyendo controles parentales, diseñadas especialmente para ayudar a las familias a garantizar un uso seguro de la IA por parte de los adolescentes. Estas funciones permiten a los padres enlazar sus cuentas con las de sus hijos, ajustando diversas configuraciones, como la opción de desactivar ciertas capacidades de la aplicación.
Además, a finales de octubre, OpenAI firmó un acuerdo con el Departamento de Justicia de California. Este acuerdo busca continuar las acciones para mitigar los riesgos asociados al uso de la inteligencia artificial, poniendo especial énfasis en la seguridad de los adolescentes. Este compromiso se formalizó con la publicación de su Plan de Seguridad para Adolescentes, donde reafirmaron su dedicación a mejorar la detección y el reporte de material de abuso infantil.
Un contexto preocupante
El incremento en los informes de explotación infantil relacionados con OpenAI plantea interrogantes sobre la responsabilidad de las plataformas de inteligencia artificial en la protección de los menores. ¿Cómo pueden estas herramientas garantizar la seguridad de los más vulnerables?
La implementación de medidas de seguridad más efectivas, junto con la colaboración activa con las autoridades, se presentan como pasos fundamentales. Solo así se podrá asegurar un entorno más seguro para todos los usuarios, especialmente para aquellos que aún están en desarrollo.


