La Asamblea Legislativa de California ha dado un paso importante hacia la regulación de la inteligencia artificial al aprobar el proyecto de ley SB 243. Esta iniciativa busca establecer protocolos de seguridad para los chatbots, con el objetivo principal de proteger a los menores y a los usuarios vulnerables de los riesgos asociados con su uso. El proyecto recibió apoyo bipartidista y ahora se dirige al Senado estatal para una votación final programada para el viernes.
Detalles del Proyecto de Ley SB 243
Si el gobernador Gavin Newsom firma este proyecto, entrará en vigor el 1 de enero de 2026, convirtiendo a California en el primer estado que exige a los operadores de chatbots de IA que implementen medidas de seguridad. Esto incluye la responsabilidad legal de las empresas si sus chatbots no cumplen con estos estándares. La ley se enfoca especialmente en los chatbots de compañía, diseñados para ofrecer respuestas adaptativas y humanas que satisfacen las necesidades sociales de los usuarios.
Entre las disposiciones clave del SB 243, se incluye la obligación de que las plataformas envíen recordatorios a los usuarios menores de edad cada tres horas, informándoles que están interactuando con un chatbot y no con una persona real. Esta medida busca mitigar el riesgo de que los jóvenes se involucren en conversaciones sobre temas delicados, como la ideación suicida o el autolesionismo. Además, se establecen requisitos de informes anuales y de transparencia para las empresas que ofrecen estos servicios, incluyendo importantes jugadores del sector como OpenAI y Character.AI.
Implicaciones de la nueva legislación
El proyecto de ley también otorga a los individuos que consideren haber sido perjudicados por violaciones de esta normativa el derecho a presentar demandas contra las empresas de IA, buscando compensaciones que podrían llegar hasta $1,000 por violación, además del reembolso de honorarios legales. La introducción del SB 243 fue motivada, en parte, por la trágica muerte del adolescente Adam Raine, quien se quitó la vida tras mantener conversaciones prolongadas con ChatGPT de OpenAI sobre su autolesionismo.
El contexto de la legislación también incluye reportes sobre documentos internos filtrados que revelaron que los chatbots de Meta estaban autorizados a involucrarse en conversaciones “románticas” y “sensuales” con menores. Ante un ambiente de creciente preocupación, tanto el Congreso de EE. UU. como la Comisión Federal de Comercio han intensificado la revisión de las salvaguardas de las plataformas de IA, especialmente en lo que respecta a la protección de los menores.
Reacciones y futuro del SB 243
El senador Steve Padilla, uno de los impulsores del proyecto, comentó sobre la urgencia de actuar: “Creo que el daño puede ser potencialmente grande, lo que significa que tenemos que movernos rápidamente”. Además, enfatizó la necesidad de que las empresas de IA compartan datos sobre la frecuencia con la que refieren a los usuarios a servicios de crisis. Aunque el SB 243 ha sufrido modificaciones, los legisladores creen que el equilibrio alcanzado es adecuado para abordar los daños sin imponer cargas imposibles a las empresas.
En el contexto de esta legislación, Silicon Valley también está viendo una oleada de financiamiento a comités de acción política que apoyan enfoques menos restrictivos hacia la regulación de la IA. Mientras tanto, California también está considerando otro proyecto de ley sobre la seguridad de la IA, el SB 53, que exigiría requisitos de transparencia más amplios. Los gigantes tecnológicos han expresado su oposición a esta última legislación, argumentando que podría sofocar la innovación.
“Rechazo la premisa de que esta es una situación de suma cero, donde la innovación y la regulación son mutuamente excluyentes”, concluyó Padilla. “Podemos apoyar la innovación y al mismo tiempo proporcionar salvaguardas razonables para proteger a los más vulnerables”.