La inteligencia artificial (IA) ha avanzado a pasos agigantados en los últimos años, pero no sin enfrentar críticas serias por los sesgos que pueden estar incrustados en sus algoritmos. Un caso reciente que resalta este fenómeno involucra a una mujer que, tras interactuar con un modelo de lenguaje, se sorprendió al recibir un comentario que cuestionaba su capacidad para entender conceptos complejos como los algoritmos cuánticos y la finanza conductual.
Este incidente pone de manifiesto cómo las percepciones de género pueden influir en la manera en que los modelos de IA generan respuestas.
Los registros de chat revelan que el modelo, al ver un perfil que asociaba características femeninas con el contenido técnico, activó un sesgo implícito que lo llevó a dudar de la validez del trabajo de la mujer. Este comportamiento ilustra cómo la IA puede replicar prejuicios humanos, incluso en contextos donde no deberían existir.
La raíz del problema: sesgos en el entrenamiento de modelos
Investigaciones han demostrado que muchos modelos de lenguaje grande (LLM) son alimentados con datos que contienen sesgos y prácticas de anotación erróneas. Annie Brown, investigadora de IA y fundadora de Reliabl, enfatiza que los modelos son el reflejo de los datos con los que son entrenados, lo que significa que los prejuicios sociales se infiltran en su funcionamiento.
Estudios previos, como los realizados por la UNESCO, han evidenciado sesgos de género en modelos como los de OpenAI y Meta, mostrando que la discriminación contra las mujeres se manifiesta en el contenido generado.
Ejemplos de sesgo en la práctica
Las experiencias de mujeres que interactúan con modelos de IA son reveladoras. Una de ellas se quejó de que el modelo se negaba a llamarla constructora, prefiriendo el término diseñadora, lo que refleja un sesgo hacia ocupaciones tradicionalmente asociadas con mujeres.
Otro relato habla de un modelo que incorporó una referencia inapropiada a la violencia sexual en una narrativa de ficción escrita por una mujer, mostrando cómo las asociaciones negativas pueden surgir en contextos creativos.
El impacto de la IA en la percepción social
La manera en que la IA genera contenido puede influir en cómo se perciben ciertos grupos en la sociedad. Alva Markelius, candidata a doctorado en la Universidad de Cambridge, recuerda que, al pedirle a un modelo que narrara la historia de un profesor y una estudiante, el modelo siempre representaba al profesor como un anciano y a la estudiante como una joven. Este tipo de representación estereotipada perpetúa imágenes tradicionales y puede reforzar la discriminación de género en la educación y otros campos.
Desafíos en la interacción usuario-IA
Sarah Potts vivió una experiencia similar al interactuar con un modelo de IA que asumió incorrectamente que un chiste que compartió fue escrito por un hombre. A pesar de los datos que proporcionó para corregir este sesgo, el modelo persistió en su error, lo que llevó a Potts a calificarlo de misógino. Este fenómeno pone de relieve la resistencia de los modelos a cambiar sus percepciones incluso cuando se les presentan pruebas en contra, lo que sugiere un problema profundo en su programación.
La IA no solo reproduce sesgos de género, sino que también puede tener un impacto significativo en la forma en que se perciben ciertas profesiones. Veronica Baciu, cofundadora de 4girls, ha observado que cuando las jóvenes preguntan sobre campos como la robótica, los modelos a menudo sugieren ocupaciones tradicionalmente femeninas como la danza o la psicología, mientras que ignoran áreas más técnicas. Esto demuestra cómo la programación de la IA puede influir en las aspiraciones profesionales de las mujeres jóvenes.
Hacia un futuro más inclusivo
Con la creciente preocupación por los sesgos en la IA, muchas empresas, incluidas OpenAI, están implementando equipos de seguridad dedicados a investigar y mitigar estos problemas. Se enfatiza que abordar los sesgos es un desafío de toda la industria, y se están adoptando enfoques múltiples para reducir la discriminación en la generación de contenido. Sin embargo, es fundamental que los usuarios comprendan que los modelos de lenguaje no son entidades autónomas. Como señala Markelius, son simplemente máquinas de predicción de texto, sin intenciones ni pensamientos propios.
En resumen, a medida que avanzamos en la era de la inteligencia artificial, es esencial reconocer y abordar los sesgos de género dentro de estos sistemas. Solo así podremos trabajar hacia un futuro donde la IA no perpetúe desigualdades, sino que contribuya a una sociedad más equitativa.


