Common Sense Media, una organización sin fines de lucro enfocada en la seguridad infantil, ha lanzado su evaluación de riesgos sobre Gemini, los productos de inteligencia artificial de Google. Realizada el pasado viernes, la evaluación resalta que, aunque Gemini se presenta como un programa de computadora y no como un amigo, existen serias preocupaciones sobre la seguridad de los menores. A pesar de incorporar algunas características de seguridad, se enfatiza que los productos de IA deben ser diseñados con la protección infantil en mente desde el principio.
Preocupaciones sobre la seguridad en Gemini AI
La evaluación de Common Sense Media revela que las versiones “Menores de 13 años” y “Experiencia Teen” de Gemini parecen ser adaptaciones de la versión para adultos, con solo algunas características de seguridad añadidas. Para que los productos de IA sean verdaderamente seguros para los niños, deben desarrollarse específicamente para su protección. Se advirtió que Gemini puede compartir contenido “inapropiado e inseguro” con los menores, incluyendo información sobre sexo, drogas y consejos de salud mental que podrían ser perjudiciales.
Este hallazgo resulta especialmente alarmante para los padres, considerando que la IA ha sido relacionada con varios casos de suicidio adolescente en meses recientes. Abogados han interpuesto demandas por muerte injusta contra OpenAI tras el fallecimiento de un joven de 16 años que supuestamente consultó a ChatGPT sobre sus planes suicidas. Anteriormente, Character.AI también enfrentó acciones legales vinculadas con el suicidio de un usuario adolescente.
Implicaciones para la tecnología futura
La evaluación se produce en un contexto donde se rumorea que Apple está considerando integrar Gemini como el modelo de lenguaje para su futura versión de Siri, programada para lanzarse el próximo año. Esto podría exponer a más adolescentes a riesgos si Apple no aborda adecuadamente estas preocupaciones de seguridad. Además, Common Sense Media criticó que los productos de Gemini no reconocen que los usuarios más jóvenes requieren orientación e información diferente en comparación con los adultos. Por ello, ambas versiones fueron clasificadas como “Alto Riesgo”, a pesar de las medidas de seguridad implementadas.
Robbie Torney, Director Senior de Programas de IA en Common Sense Media, expresó: “Gemini acierta en algunos aspectos básicos, pero tropieza en los detalles. Una plataforma de IA para niños debe adaptarse a su desarrollo, no adoptar un enfoque universal para todos los niños en diferentes etapas de crecimiento.” Esta afirmación resalta la necesidad de un diseño más consciente de las necesidades infantiles en la tecnología de IA.
Reacción de Google
Frente a estas preocupaciones, Google ha reaccionado a la evaluación, subrayando que sus características de seguridad están en constante mejora. La compañía afirmó que tiene políticas y salvaguardas específicas para los usuarios menores de 18 años, con el fin de evitar resultados dañinos. Google también admitió que algunas respuestas de Gemini no funcionaron como se esperaba y ha añadido medidas para abordar esos problemas.
Además, Google indicó que cuenta con estrategias para evitar que sus modelos participen en conversaciones que puedan dar la impresión de relaciones reales. Sin embargo, la compañía cuestionó algunos hallazgos de Common Sense, sugiriendo que el informe se basaba en características no disponibles para usuarios menores de 18 años. No obstante, la empresa no tuvo acceso a las preguntas utilizadas en la evaluación de Common Sense.
Common Sense Media ha realizado otras evaluaciones de servicios de IA, incluyendo OpenAI, Perplexity, Claude y Meta AI. Las conclusiones varían, indicando que mientras algunos productos son considerados de riesgo moderado, otros, como Meta AI y Character.AI, fueron clasificados como “inaceptables” debido a riesgos severos.