Un reciente estudio realizado por la Universidad Johannes Gutenberg de Maguncia (JGU), en colaboración con otras instituciones académicas, ha revelado un hallazgo preocupante: los modelos de lenguaje, como GPT-5 y Llama, tienden a evaluar de forma desfavorable a los hablantes de dialectos alemanes en comparación con aquellos que utilizan el alemán estándar. Este trabajo, liderado por la profesora Katharina von der Wense y el investigador Minh Duc Bui, fue presentado en la Conferencia sobre Métodos Empíricos en Procesamiento del Lenguaje Natural (EMNLP) de este año.
Los resultados obtenidos subrayan cómo los sistemas de inteligencia artificial, entrenados con datos que reflejan estereotipos sociales, reproducen prejuicios que impactan la percepción de los hablantes de dialectos. Según Bui, “los dialectos son una parte esencial de la identidad cultural”, lo que hace que este sesgo sea especialmente alarmante.
Metodología del estudio
Para llevar a cabo esta investigación, el equipo utilizó bases de datos lingüísticas con variantes ortográficas y fonéticas de varios dialectos alemanes. A partir de ello, se tradujeron siete variedades dialectales al alemán estándar, creando un conjunto de datos paralelo que facilitó una comparación sistemática. Los modelos de lenguaje fueron evaluados con textos en alemán estándar y en dialecto, lo que permitió observar diferencias en la asignación de atributos a los hablantes ficticios.
Evaluación de atributos
Los investigadores sometieron diez modelos de lenguaje a pruebas donde se les pedía asignar características a hablantes ficticios. Por ejemplo, se les solicitó calificar a los hablantes como “educados” o “no educados”. También se realizaron decisiones basadas en situaciones hipotéticas, como invitaciones a talleres o elecciones de residencia.
Los resultados fueron contundentes: la mayoría de los modelos asociaron a los hablantes de dialectos con características negativas. Mientras que quienes hablaban en alemán estándar eran descritos como “profesionales” o “confiables”, los hablantes de dialectos eran etiquetados como “rurales” o “tradicionales”, a menudo vinculándolos con un nivel educativo inferior.
Implicaciones de los sesgos en inteligencia artificial
Este fenómeno no se limita a un problema local, sino que refleja un desafío global en el tratamiento de las variaciones lingüísticas. La profesora von der Wense enfatiza que estas asociaciones están profundamente arraigadas en los conjuntos de datos de entrenamiento de los modelos. “Es preocupante, ya que los sistemas de IA se utilizan cada vez más en contextos como la educación o la contratación, donde el lenguaje puede ser un indicador de competencia o credibilidad”, advierte.
Sesgos en modelos de mayor tamaño
Curiosamente, los modelos más grandes dentro de la misma familia exhibieron un sesgo aún más marcado al ser informados que un texto estaba en dialecto. “Esto demuestra que un modelo más grande no necesariamente es más justo”, señala Bui. “De hecho, los modelos más voluminosos parecen aprender los estereotipos sociales con mayor precisión.” Además, el sesgo se mantuvo presente incluso al comparar textos en alemán estándar con variaciones que incorporaban “ruido” intencionado.
El camino hacia un futuro más inclusivo
La discriminación hacia los dialectos alemanes representa un caso de estudio que invita a reflexionar sobre la diversidad lingüística a nivel global. Bui añade que se han documentado sesgos similares en otros idiomas, como el inglés afroamericano, lo que resalta la necesidad de abordar estos problemas de manera integral.
El equipo de investigación en Maguncia está trabajando en un estudio adicional que examinará cómo los modelos de lenguaje responden a dialectos específicos de la región de Maguncia. La intención es explorar cómo se pueden diseñar y entrenar los modelos para representar la diversidad lingüística de manera más equitativa.
“Los dialectos son una parte vital de la identidad social”, concluye von der Wense. “Asegurar que las máquinas no solo reconozcan, sino que también respeten esta diversidad, es un asunto de justicia técnica y responsabilidad social”.

