in

Fiscales estatales exigen avances en salud mental a través de chatbots de IA

Los fiscales estatales exigen a las empresas de inteligencia artificial que fortalezcan la seguridad de sus chatbots.

fiscales estatales exigen avances en salud mental a traves de chatbots de ia 1765412672

Recientemente, un grupo de fiscales generales de varios estados de EE. UU. ha emitido una advertencia seria a las principales empresas de inteligencia artificial, como Microsoft, OpenAI y Google. En una carta firmada por numerosos fiscales, se exige a estas compañías que aborden los resultados dañinos generados por sus chatbots o, de lo contrario, podrían estar violando leyes estatales.

Esta alerta surge en un contexto de creciente preocupación sobre la salud mental relacionada con el uso de la inteligencia artificial.

Especialmente en un panorama donde se han registrado incidentes trágicos que involucran comportamientos suicidas y violentos, asociados a interacciones con estas tecnologías.

Demandas de los fiscales generales

En la carta, los fiscales generales han solicitado a las empresas que implementen una serie de salvaguardias internas para proteger a los usuarios de sus productos de inteligencia artificial. Estas medidas incluyen auditorías independientes de los modelos de lenguaje, que busquen signos de ideaciones delirantes o adulación excesiva.

Además, se propone establecer procedimientos de reporte de incidentes que permitan alertar a los usuarios sobre salidas psicológicamente dañinas de los chatbots.

Transparencia y responsabilidad

Los auditores independientes, que podrían incluir grupos académicos y de sociedad civil, deben tener la libertad de evaluar los sistemas antes de su lanzamiento sin temor a represalias. Además, podrán publicar sus hallazgos sin necesidad de aprobación previa por parte de las empresas. Este enfoque busca fomentar la transparencia y la responsabilidad en el desarrollo de tecnologías de inteligencia artificial.

El impacto de la inteligencia artificial en la salud mental

La carta enfatiza que, aunque la inteligencia artificial generativa tiene el potencial de transformar positivamente el mundo, también puede provocar daños severos, especialmente en poblaciones vulnerables. Se citan incidentes ampliamente publicitados, donde las interacciones con productos de IA han estado ligadas a actos de violencia y suicidio.

En muchos de estos casos, los chatbots generaron respuestas que alimentaron las ilusiones de los usuarios o les aseguraron que no estaban experimentando problemas de salud mental.

Esta situación ha llevado a los fiscales a solicitar que las empresas traten los incidentes relacionados con la salud mental con el mismo rigor que los incidentes de ciberseguridad.

Medidas propuestas para mitigar riesgos

Entre las demandas formuladas, se sugiere que las empresas desarrollen y publiquen cronogramas de detección y respuesta para outputs potencialmente dañinos. Al igual que con las violaciones de datos, las compañías deberían notificar de manera clara y directa a los usuarios si han estado expuestos a respuestas perjudiciales generadas por sus chatbots.

Otra recomendación es que las empresas implementen pruebas de seguridad adecuadas a los modelos de IA generativa antes de su lanzamiento al público. Estas pruebas deberían garantizar que los modelos no produzcan salidas dañinas y se realicen de manera rigurosa.

La lucha entre regulaciones estatales y federales

El clima de regulación en torno a la inteligencia artificial se complica aún más por la postura de la administración federal. Mientras los fiscales estatales están presionando por una mayor regulación y protección de los usuarios, la administración Trump ha manifestado un claro apoyo a la IA, intentando frenar iniciativas estatales que buscan regular su desarrollo.

El presidente ha anunciado su intención de firmar un decreto que limitaría la capacidad de los estados para regular la inteligencia artificial, argumentando que esto es esencial para evitar que la industria sea destruida en su infancia. Esta tensión entre los niveles estatal y federal plantea un desafío significativo para el futuro de la inteligencia artificial y su regulación.

¿Qué piensas?

Escrito por Staff

intel planea adquirir sambanova systems para potenciar su liderazgo en inteligencia artificial 1765405267

Intel planea adquirir SambaNova Systems para potenciar su liderazgo en inteligencia artificial