Los fiscales generales de California, Rob Bonta, y de Delaware, Kathy Jennings, han expresado sus preocupaciones en relación con la seguridad de ChatGPT, especialmente en lo que atañe a menores y adolescentes. Lo han hecho a través de una carta abierta dirigida a OpenAI. Esta advertencia surge una semana después de que Bonta y otros 44 fiscales generales enviaran una misiva a doce de las principales empresas de inteligencia artificial, en respuesta a informes sobre interacciones sexualmente inapropiadas entre chatbots y niños.
Incidentes trágicos impulsan la alerta
En su carta, Bonta y Jennings lamentan la muerte por suicidio de un joven californiano, quien mantuvo interacciones prolongadas con un chatbot de OpenAI. También mencionan un trágico caso de asesinato-suicidio en Connecticut. “Cualquiera que fueran las medidas de seguridad existentes, no funcionaron”, afirman. Esta preocupación subraya la necesidad urgente de revisar las políticas de seguridad de estas tecnologías emergentes.
Los fiscales están investigando la propuesta de OpenAI de reestructurarse como entidad con fines de lucro. Quieren asegurarse de que la misión original de la organización sin fines de lucro, que incluye el despliegue seguro de la inteligencia artificial, siga vigente. “Antes de poder beneficiar a la humanidad, necesitamos garantizar que existan medidas de seguridad adecuadas para no causar daño”, enfatizan en su carta.
Demandas de mayor transparencia y medidas correctivas
Bonta y Jennings han solicitado información detallada sobre las precauciones de seguridad actuales y la gobernanza de OpenAI. Además, han expresado su expectativa de que la empresa implemente medidas correctivas de inmediato. La carta destaca que la seguridad pública es una de las misiones fundamentales de los fiscales generales. Por ello, es crucial acelerar y amplificar las medidas de seguridad en el desarrollo y despliegue de productos de inteligencia artificial.
En respuesta, Bret Taylor, presidente de la junta de OpenAI, ha afirmado que la empresa está comprometida a abordar las preocupaciones expresadas por los fiscales generales. “Estamos consternados por estas tragedias y nuestras más profundas condolencias están con las familias afectadas”, comentó. La seguridad de los usuarios es la máxima prioridad para la empresa, que asegura estar trabajando en estrecha colaboración con responsables políticos a nivel mundial.
Medidas proactivas para la protección de menores
OpenAI ha manifestado su intención de expandir las protecciones para los adolescentes, implementando controles parentales y mecanismos de notificación. Estos permitirán que los padres sean alertados si su hijo se encuentra en una situación de angustia aguda. Estas acciones reflejan un esfuerzo por parte de la empresa para garantizar un entorno más seguro para los usuarios más jóvenes mientras interactúan con sus sistemas de inteligencia artificial.
En resumen, la creciente preocupación sobre la seguridad de las interacciones de los menores con tecnologías de inteligencia artificial como ChatGPT resalta la necesidad de una regulación más estricta y medidas de protección adecuadas. A medida que la inteligencia artificial continúa evolucionando y desempeñando un papel más importante en la vida cotidiana, es fundamental que las empresas y los reguladores trabajen conjuntamente para salvaguardar a los más vulnerables.