Investigación destaca fallas en la IA de Amazon con dialectos del inglés

Investigadores de Cornell analizan cómo la IA de Amazon no responde adecuadamente a dialectos del inglés, sugiriendo la necesidad de auditorías lingüísticas en chatbots.

default featured image 3 1200x900 1

Un nuevo estudio de la Universidad de Cornell ha puesto en evidencia problemas serios en Rufus, el asistente de compras de Amazon. Este asistente, que debería facilitar la experiencia de compra, ofrece respuestas vagas o incorrectas a usuarios que se expresan en ciertos dialectos del inglés, como el inglés afroamericano (AAE). ¿Te imaginas lo frustrante que debe ser eso? Este hallazgo no solo es interesante, sino que también nos lleva a cuestionar la equidad en los sistemas de inteligencia artificial que usamos cada día en línea. Los investigadores destacan la necesidad de crear modelos de IA que reconozcan y se adapten a la diversidad lingüística.

Los hallazgos del estudio de Cornell

La investigación, liderada por Emma Harvey, una estudiante de doctorado en Cornell Tech, introduce un marco para evaluar chatbots según los daños que pueden causar a los usuarios que utilizan diferentes dialectos. “Actualmente, los chatbots pueden ofrecer respuestas de menor calidad a quienes usan dialectos. Sin embargo, esto no debería ser así”, enfatiza Harvey. El estudio revela que la capacidad de Rufus para responder de manera adecuada se ve afectada cuando los usuarios emplean formas dialectales o cometen errores tipográficos. ¿Te has encontrado alguna vez en una situación similar?

El equipo de investigación auditó el chatbot de Amazon utilizando una herramienta llamada MultiVALUE, que convierte preguntas en inglés estándar a cinco dialectos comunes, incluyendo el AAE y el inglés chicano. Los resultados fueron claros: Rufus ofrecía respuestas de baja calidad con más frecuencia cuando las preguntas eran formuladas en dialectos, especialmente si había errores tipográficos. ¿No te parece alarmante?

Implicaciones y recomendaciones para el futuro

Los autores del estudio subrayan que es esencial realizar auditorías lingüísticas en los sistemas de IA. “Los chatbots son cada vez más utilizados en tareas de alto riesgo, desde la educación hasta los servicios gubernamentales”, comenta Allison Koenecke, coautora de la investigación. La falta de precisión en las respuestas de Rufus plantea serias preocupaciones sobre su efectividad para una amplia gama de usuarios. Sin duda, esto podría perpetuar desigualdades si no se toman medidas al respecto.

Koenecke también resalta que los sistemas deben ser diseñados para aceptar la diversidad lingüística. “Las auditorías lingüísticas deberían convertirse en una práctica estándar para mitigar el riesgo de agravar las desigualdades educativas”, añade Rene F. Kizilcec, otro de los coautores. Este trabajo fue reconocido con un premio al mejor artículo en la Conferencia ACM sobre Equidad, Responsabilidad y Transparencia en 2025, lo que evidencia su relevancia en el ámbito de la inteligencia artificial.

Conclusiones del estudio

El estudio de Cornell pone de relieve la necesidad de que los desarrolladores de chatbots consideren las variaciones dialectales. La investigación concluye que, si se entrenan modelos de lenguaje grande para ser más robustos ante características dialectales, se podría lograr un comportamiento más equitativo en la interacción con los usuarios. A medida que la tecnología avanza, es crucial que los desarrolladores sean conscientes de la diversidad lingüística y trabajen para mejorar la calidad del servicio que ofrecen a todos, sin importar su forma de hablar. ¿No crees que todos merecen ser entendidos de manera justa?

¿Qué piensas?

Escrito por Staff

canada y la busqueda de soberania digital frente a silicon valley 1752559259

Canadá y la búsqueda de soberanía digital frente a Silicon Valley

default featured image 3 1200x900 1

Tesla abre su primer showroom en India tras años de espera