in

Aumento notable en informes de explotación infantil por parte de OpenAI

OpenAI ha reportado un aumento sin precedentes en incidentes de explotación infantil a las autoridades competentes.

aumento notable en informes de explotacion infantil por parte de openai 1766516259

En un reciente comunicado, OpenAI reveló que durante la primera mitad de 2025, envió 80 veces más informes de incidentes relacionados con la explotación infantil al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) en comparación con el mismo período del año anterior. Este aumento destaca la creciente preocupación por la seguridad infantil en plataformas de inteligencia artificial.

El NCMEC gestiona el CyberTipline, una línea autorizada por el Congreso para el reporte de material de abuso sexual infantil (CSAM) y otras formas de explotación.

Las empresas están obligadas por ley a informar cualquier caso aparente de explotación infantil a esta línea, que evalúa los informes y los remite a las agencias de aplicación de la ley correspondientes para su investigación.

El contexto de los informes de OpenAI

El aumento en la cantidad de informes puede reflejar cambios en los métodos de moderación automatizados de la plataforma, así como en los criterios utilizados para determinar la necesidad de un reporte.

Esto no necesariamente indica un incremento en actividades delictivas. Además, es importante considerar que un mismo contenido puede ser objeto de múltiples informes, mientras que un solo informe puede abarcar varios elementos.

Comparativa de datos entre años

Durante los primeros seis meses de 2025, OpenAI reportó 75,027 incidentes, casi equivalente a la cantidad de contenido que generó esos informes, que fue de 74,559. En contraste, en el mismo período del año anterior, la compañía solo presentó 947 informes relacionados con 3,252 piezas de contenido.

Esta comparación revela un crecimiento significativo tanto en la cantidad de reportes como en el contenido implicado.

OpenAI ha aclarado que todos los casos de CSAM, incluyendo tanto las cargas como las solicitudes, son reportados al NCMEC. La plataforma de ChatGPT permite a los usuarios cargar archivos, incluyendo imágenes, y generar contenido textual y visual, lo que podría haber influido en el aumento de reportes. Sin embargo, el reciente conteo de NCMEC no incluye informes relacionados con Sora, una aplicación de generación de videos que fue lanzada en septiembre de 2025.

Implicaciones más amplias de la IA generativa

El notable incremento de reportes de OpenAI sigue una tendencia observada a nivel general en el CyberTipline. Según el análisis de NCMEC, los informes relacionados con la inteligencia artificial generativa aumentaron en un asombroso 1,325% entre 2025 y 2025. A pesar de esto, no se han publicado datos para 2025 y otras grandes empresas de IA, como Google, solo ofrecen estadísticas sobre los reportes que han realizado sin detallar qué porcentaje corresponde a informes ligados a la IA.

Desafíos y regulaciones en la industria de IA

La actualización de OpenAI llega en un momento donde la compañía y sus competidores enfrentan un escrutinio creciente en relación a la seguridad infantil, más allá del CSAM. Durante el verano, un grupo de 44 fiscales generales estatales dirigió una carta conjunta a varias empresas de IA, incluyendo OpenAI, Meta y Google, advirtiendo que utilizarían todas las herramientas a su disposición para proteger a los niños de la explotación por parte de productos de inteligencia artificial.

OpenAI y Character.AI han sido objeto de múltiples demandas de familias que alegan que los chatbots han contribuido a tragedias relacionadas con la muerte de sus hijos. La preocupación por estos temas llevó al Comité Judicial del Senado de EE. UU. a realizar una audiencia sobre los daños potenciales que pueden causar los chatbots de IA, mientras que la Comisión Federal de Comercio inició un estudio de mercado sobre los bots de compañía de IA y su impacto en los niños.

Nuevas herramientas y enfoques de seguridad

En respuesta a estas preocupaciones, OpenAI ha introducido herramientas de seguridad enfocadas en la protección de los usuarios jóvenes. En septiembre de 2025, la empresa implementó nuevas características para ChatGPT, incluyendo controles parentales. Los padres pueden vincular sus cuentas con las de sus hijos y ajustar configuraciones como desactivar el modo de voz y la memoria, así como eliminar la capacidad de generar imágenes. Además, OpenAI se comprometió a notificar a los padres si se detectan conversaciones que indiquen autolesiones, e incluso a alertar a las autoridades si hay una amenaza inminente para la vida.

En octubre de 2025, OpenAI llegó a un acuerdo con el Departamento de Justicia de California en relación a su plan de recapitalización, comprometiéndose a seguir implementando medidas para mitigar riesgos asociados al desarrollo y despliegue de la inteligencia artificial. En noviembre, OpenAI lanzó su Blueprint de Seguridad para Adolescentes, en el cual reafirmó su compromiso de mejorar constantemente su capacidad para detectar y reportar material de abuso sexual infantil a las autoridades competentes, incluyendo el NCMEC.

¿Qué piensas?

Escrito por Staff

rivales de marvel novedades impactantes para el proximo ano de netease games 1766512613

Rivales de Marvel: Novedades Impactantes para el Próximo Año de NetEase Games

como la tecnologia potencia a los robots para interpretar las intenciones humanas 1766519920

Cómo la Tecnología Potencia a los Robots para Interpretar las Intenciones Humanas