La presencia cotidiana de asistentes de IA en herramientas de escritura plantea una pregunta inquietante: ¿puede una simple sugerencia terminar inclinando una opinión? Un equipo de investigadoras y investigadores de Cornell Tech publicó en Science Advances un trabajo que responde afirmativamente. El estudio, presentado el 11 de marzo de 2026, observa cómo los usuarios que reciben propuestas de autocompletado con una dirección ideológica tienden a aproximar sus convicciones a las recomendaciones del sistema, incluso cuando creen estar atentos al sesgo.
El fenómeno se manifestó en dos experimentos con más de 2.500 participantes. Antes y después de escribir sobre asuntos públicos, los sujetos completaron encuestas que midieron su posición en temas como el uso de pruebas estandarizadas en educación, la pena de muerte, el fracking, los organismos genéticamente modificados y el derecho al voto de personas condenadas por delitos graves. Los resultados, consistentes entre ambos estudios, muestran un desplazamiento hacia la posición que las sugerencias automatizadas fomentaban.
Diseño experimental y hallazgos clave
Los investigadores compararon varias condiciones: algunos participantes recibieron sugerencias de autocompletado con sesgo a favor o en contra de una postura; otros vieron una lista de argumentos generada con anterioridad por la misma IA; un tercer grupo no obtuvo ayuda. La comparación permitió distinguir el efecto de la interacción dinámica con el asistente del efecto de leer argumentos ya formulados. El equipo observó que la influencia más clara provino de las sugerencias en tiempo real: quienes las vieron cambiaron más sus respuestas que quienes solo leyeron los argumentos previos.
Métodos y temas analizados
En el segundo experimento se ampliaron los temas para cubrir asuntos políticamente sensibles y variados, y los sesgos incorporados en las sugerencias fueron deliberadamente distintos según el tópico: orientaciones más liberales para la pena de muerte y los OGM (organismos genéticamente modificados), y más conservadoras para el fracking y el voto de personas con antecedentes penales. Además, parte de la muestra fue informada sobre la existencia de ese sesgo, ya fuera antes o después de la tarea, para evaluar posibles medidas de mitigación.
Invisibilidad del efecto y fracaso de las advertencias
Una de las observaciones más preocupantes fue que la mayoría de las personas no notó el cambio en sus creencias y que las estrategias de advertencia no evitaron el sesgo. Avisar a los participantes sobre la parcialidad del sistema, o debriefearlos tras la experiencia, no anuló el desplazamiento de opinión. Como señalan los autores, esto contrasta con hallazgos previos en el campo de la desinformación, donde las advertencias suelen ofrecer cierta inmunidad. Aquí, la interacción en el momento de escribir parece ejercer una influencia sutil y robusta.
Implicaciones prácticas y conexiones con el sesgo de género
Más allá del experimento, el trabajo subraya dos tendencias: la omnipresencia del autocompletado en plataformas de correo y edición, y la plausibilidad de que sesgos sean intencionados o emergentes según cómo se entrenen los modelos. Esto conecta con preocupaciones documentadas sobre sesgo de género en sistemas que seleccionan anuncios de empleo o generan imágenes. Si la tecnología muestra patrones discriminatorios en quién aparece como candidato ideal o qué roles se asocian a un género, el efecto acumulado puede afectar oportunidades y percepciones sociales.
Los autores del estudio —entre ellos Sterling Williams-Ceci, Maurice Jakesch y Mor Naaman— advierten que cambiar la forma en que escribimos puede terminar cambiando lo que pensamos, y que esto no siempre será evidente para las personas afectadas. El trabajo recibió apoyo de la National Science Foundation y de la German National Academic Foundation, y suma evidencia a la necesidad de evaluar no solo la precisión de los sistemas, sino también sus efectos sociales.
Qué hacer ahora: vigilancia y diseño responsable
Frente a estos hallazgos, las organizaciones y equipos de producto deben incorporar auditorías de sesgo algorítmico, pruebas de rendimiento por cohortes demográficas y políticas claras que permitan pausar despliegues si se detectan efectos adversos. La diversidad en los equipos de diseño y la transparencia sobre las limitaciones del modelo son prácticas recomendadas para reducir riesgos. Si no se actúa, las sugerencias aparentemente inofensivas podrían convertirse en herramientas que modelan la opinión pública sin que la ciudadanía lo perciba.

