Nuevos estándares para medir la inteligencia emocional en sistemas de IA

Un grupo de investigadores del MIT está diseñando métricas para evaluar cómo la IA puede fomentar interacciones más saludables con los usuarios.

nuevos estandares para medir la inteligencia emocional en sistemas de ia python 1755117013

Desde el lanzamiento de la nueva versión de ChatGPT, muchos usuarios han manifestado su descontento. ¿Qué ha cambiado? La personalidad del modelo ahora se siente más fría y profesional. Este ajuste busca reducir comportamientos poco saludables en los usuarios, un reto importante en la creación de sistemas de inteligencia artificial que realmente muestren **inteligencia emocional**. En este contexto, un equipo de investigadores del Instituto Tecnológico de Massachusetts (MIT) ha propuesto un nuevo marco para medir cómo la IA puede influir y manipular a sus usuarios, tanto de manera positiva como negativa.

Redefiniendo cómo evaluamos la IA

Tradicionalmente, las métricas de inteligencia artificial se han centrado en evaluar la capacidad de un modelo para responder preguntas o resolver problemas lógicos. Sin embargo, con el creciente uso de la IA, se hace evidente la necesidad de establecer estándares que midan aspectos más sutiles de la interacción humano-máquina. El documento elaborado por el MIT detalla varias métricas que se incluirán en esta nueva referencia, tales como la promoción de hábitos sociales saludables, el fomento del pensamiento crítico, la estimulación de la creatividad y el desarrollo de un sentido de propósito.

La idea central es crear sistemas de IA que no solo reconozcan cuándo un usuario se vuelve dependiente de sus respuestas, sino que también les ayuden a construir relaciones auténticas en lugar de mantener interacciones artificiales. Un claro ejemplo son los chatbots como ChatGPT, que son expertos en imitar una comunicación humana atractiva, pero esto puede llevar a resultados inesperados. De hecho, en abril, OpenAI hizo ajustes en sus modelos para hacerlos menos aduladores, con el fin de evitar que los usuarios caigan en patrones de dependencia emocional dañina.

¿Por qué es crucial la inteligencia emocional en la IA?

Los investigadores del MIT, liderados por Pattie Maes, profesora en el Media Lab, tienen la esperanza de que esta nueva referencia ayude a los desarrolladores de IA a crear sistemas que comprendan mejor cómo inspirar comportamientos más saludables entre los usuarios. ¿Sabías que los usuarios que ven a ChatGPT como un amigo pueden experimentar mayor dependencia emocional? Esto fue evidenciado en un estudio en el que colaboraron con OpenAI.

Valdemar Danry, otro investigador del MIT, subraya que los modelos de IA pueden ofrecer un apoyo emocional valioso. “Puedes tener el modelo de razonamiento más inteligente del mundo, pero si no puede proporcionar este apoyo emocional, que es lo que muchos usuarios buscan, entonces tener más razonamiento no necesariamente es beneficioso”, explica. Danry enfatiza que un modelo idealmente inteligente debería ser capaz de reconocer si está causando un efecto psicológico negativo y optimizarse para obtener resultados más saludables.

Próximos pasos en la evaluación de la IA

La referencia propuesta implica simular interacciones desafiantes entre humanos y chatbots. Luego, se permitirá que personas reales evalúen el desempeño del modelo en diversas interacciones. Por ejemplo, los investigadores mencionan un chatbot diseñado para ayudar a estudiantes, con el objetivo de observar cómo maneja diferentes tipos de interacciones, como aquellas con un estudiante desinteresado. El modelo que logre fomentar mejor el pensamiento crítico y el interés genuino por aprender será el que obtenga una puntuación más alta.

“Esto no se trata solo de ser inteligente, sino de comprender la complejidad psicológica y de cómo apoyar a las personas de manera respetuosa y no adictiva”, afirma Pat Pataranutaporn, otro investigador del laboratorio del MIT. OpenAI ya está considerando estos desafíos, y la semana pasada publicó un blog en el que expresó su intención de optimizar futuros modelos para detectar signos de angustia mental o emocional y responder de manera adecuada.

En conclusión, la búsqueda por desarrollar modelos de IA que no solo sean eficaces, sino también emocionalmente inteligentes, es un camino que podría cambiar radicalmente cómo interactuamos con la tecnología en el futuro. A medida que avanzamos en la creación de benchmarks que evalúan la inteligencia emocional, esperamos que los sistemas de IA se conviertan en aliados más saludables y menos dependientes en la vida cotidiana de los usuarios.

¿Qué piensas?

Escrito por Staff

default featured image 3 1200x900 1

Epic optimiza Easy Anti-Cheat para dispositivos Windows con tecnología Arm

nuevas soluciones de combustible para motores una mirada a la sostenibilidad python 1755120693

Nuevas soluciones de combustible para motores: una mirada a la sostenibilidad