En los últimos meses, OpenAI ha enfrentado una creciente presión para abordar las preocupaciones sobre la seguridad de su popular chatbot, ChatGPT. Este sistema de inteligencia artificial se encuentra en el centro de varias demandas por muerte injusta, donde se alega que ha proporcionado consejos perjudiciales a adolescentes en riesgo, incluyendo algunos trágicos casos de suicidio. En respuesta a estas serias acusaciones, OpenAI ha decidido fortalecer sus protocolos de seguridad.
Recientemente, la compañía publicó una entrada en su blog donde se detallan sus esfuerzos para mejorar la seguridad de su plataforma, reafirmando su compromiso de priorizar la seguridad de los adolescentes, incluso si esto puede entrar en conflicto con otros objetivos comerciales.
Nuevas medidas de seguridad para adolescentes
En su comunicado, OpenAI anunció una actualización en su Modelo Específico, que establece directrices sobre el comportamiento de sus modelos de inteligencia artificial.
Estas nuevas directrices se enfocan especialmente en la interacción con usuarios menores de 18 años, proporcionando un marco más seguro y responsable en situaciones de alto riesgo.
Principios de interacción para menores
OpenAI se comprometió a ofrecer una experiencia más segura y apropiada para menores de 13 a 17 años. Esto se logrará a través de un enfoque centrado en la prevención, la transparencia y la intervención temprana.
Como parte de esta actualización, ChatGPT ahora presentará un conjunto más fuerte de salvaguardias al abordar temas delicados como el autolesionismo, el suicidio, y situaciones de riesgo emocional.
La entrada en el blog explica que los adolescentes se beneficiarán de alternativas más seguras y se les alentará a buscar apoyo de personas de confianza cuando las conversaciones aborden estos temas sensibles. ChatGPT estará diseñado para instar a los usuarios a contactar servicios de emergencia o recursos de crisis cuando se detecte un riesgo inminente.
Colaboración con expertos en salud mental
Además, OpenAI ha consultado a la Asociación Americana de Psicología (APA) sobre las nuevas directrices para usuarios menores de edad. Según el Dr. Arthur C. Evans Jr., CEO de la APA, los niños y adolescentes pueden beneficiarse de herramientas de inteligencia artificial, pero estas deben ser complementadas con interacciones humanas, las cuales son fundamentales para su desarrollo social, psicológico y emocional.
Guías de alfabetización en inteligencia artificial
Como parte de su compromiso, OpenAI ha lanzado dos nuevas guías sobre alfabetización en inteligencia artificial, diseñadas para educar tanto a adolescentes como a padres. Estas guías están revisadas por expertos para garantizar que la información proporcionada sea precisa y útil. La empresa también está desarrollando un modelo de predicción de edad para identificar a los usuarios menores de edad en sus planes de consumo de ChatGPT, lo que permitirá aplicar medidas de seguridad adicionales.
Recientemente, expertos en salud mental han expresado su preocupación por el uso de chatbots en discusiones sobre salud mental entre adolescentes. En una declaración, OpenAI indicó que su nuevo modelo, ChatGPT-5.2, ha sido diseñado para ser más seguro en este contexto, reflejando su compromiso con el bienestar de los jóvenes.
Recursos para la crisis y el bienestar
Para aquellos que puedan estar lidiando con pensamientos suicidas o crisis de salud mental, es fundamental buscar ayuda. Se recomienda contactar a líneas de ayuda como la Línea Nacional de Prevención del Suicidio al 988, o visitar 988lifeline.org para asistencia. También existen recursos específicos para la comunidad LGBTQ+, como la Línea Trans al 877-565-8860 y el Proyecto Trevor al 866-488-7386.
Es crucial que los adolescentes y sus familias se sientan apoyados y sepan que hay recursos disponibles para enfrentar momentos difíciles. La seguridad y el bienestar de los jóvenes deben ser siempre la prioridad en el uso de nuevas tecnologías como la inteligencia artificial.

