La inteligencia artificial (IA) ha transformado nuestra relación con la tecnología. Sin embargo, también ha sacado a la luz problemas significativos relacionados con los sesgos en sus sistemas. Un reciente estudio de investigadores de la Universidad Estatal de Pensilvania ha revelado que las preguntas formuladas de manera intuitiva por usuarios comunes pueden generar respuestas sesgadas en chatbots como ChatGPT y Gemini. Curiosamente, estos resultados son tan efectivos como las estrategias más complejas empleadas por expertos.
Un enfoque accesible para descubrir sesgos
Históricamente, el análisis de los sesgos en la inteligencia artificial (IA) se ha basado en métodos técnicos avanzados. Estos a menudo parecen un juego del gato y el ratón entre programadores y sistemas de IA. Sin embargo, un nuevo enfoque revela que los usuarios comunes, al formular preguntas directas y sencillas, pueden identificar prejuicios que, de otro modo, pasarían desapercibidos. Amulya Yadav, profesor asociado en la Universidad Estatal de Pensilvania, sostiene: “Los métodos complejos no reflejan cómo la mayoría de las personas interactúa con la IA. La investigación se centra en la experiencia real del usuario.”
El evento Bias-a-Thon
Con el objetivo de abordar la problemática de los sesgos en la inteligencia artificial, se llevó a cabo el Bias-a-Thon. Este concurso reunió a 52 participantes, quienes, aunque no contaban con un bagaje técnico extenso, se propusieron desafiar a distintos sistemas de IA para poner de manifiesto sus sesgos inherentes. Cada concursante presentó capturas de pantalla que documentaban 75 preguntas y respuestas generadas por ocho modelos de IA. Posteriormente, se analizaron estas respuestas en función de los sesgos o estereotipos que los participantes lograron identificar, tales como aquellos relacionados con la edad o la raza.
Identificación de sesgos y estrategias utilizadas
Un análisis reciente sobre las interacciones entre usuarios y modelos de lenguaje ha revelado hallazgos sorprendentes. De un total de preguntas formuladas, 53 generaron respuestas que evidenciaban sesgos en ocho categorías diferentes: género, raza, etnicidad, religión, edad, discapacidad, lingüístico y político. Estos resultados subrayan un punto crucial: los sesgos pueden manifestarse a través de interacciones simples, independientemente de la sofisticación de la tecnología empleada.
Las categorías de sesgos
Los investigadores identificaron que los participantes utilizaron diversas estrategias para generar respuestas sesgadas. Entre ellas, se destacan el rol (asumir un personaje para formular preguntas), la creación de escenarios hipotéticos, así como preguntas directivas sobre temas controversiales. También se experimentó con la introducción de información falsa. Esta variedad de enfoques permitió a los participantes revelar aspectos de la IA que, frecuentemente, permanecen ocultos en la literatura técnica.
Implicaciones y recomendaciones para el desarrollo de IA
Los hallazgos del Bias-a-Thon destacan la crucial importancia de la literacidad en IA. Ante esto, es fundamental que los desarrolladores reconozcan estos sesgos y se comprometan activamente a mitigarlos. Según Yadav, la lucha contra los sesgos en IA se asemeja a un juego de gato y ratón, donde los problemas emergen constantemente y requieren soluciones innovadoras. Para abordar esta situación, se proponen medidas como la implementación de filtros de clasificación robustos y la educación de los usuarios sobre el uso responsable de estas herramientas.
La investigación destaca que la colaboración entre expertos y usuarios es fundamental para construir un futuro en el que la inteligencia artificial sea no solo innovadora, sino también justa. A medida que la sociedad se familiariza con los sesgos que pueden surgir en la IA, es esencial fomentar un diálogo activo que promueva un desarrollo ético y equitativo de estas tecnologías.

