La adopción de asistentes por voz entre la población adulta mayor depende tanto de la tecnología como de la percepción que los usuarios tienen de ella. Un informe de AI Caring concluye que, sin explicaciones claras, las recomendaciones generadas por sistemas conversacionales difícilmente serán aceptadas por las personas mayores. Esta investigación, publicada con el sello del proyecto y registrada como estudio en su fecha original, subraya que el diseño del diálogo y la transparencia son determinantes para la confianza y la voluntad de uso.
XAI —la rama centrada en la explicabilidad— aparece así como un requisito funcional y ético para despliegues responsables.
Publicado: 06/04/2026 11:20. El análisis se focalizó en agentes conversacionales activados por voz y explora expectativas concretas de usuarios mayores: desean comprender por qué una sugerencia se ofrece, qué datos la fundamentan y cómo pueden verificar la exactitud o rechazarla. Los resultados ponen en evidencia que la ausencia de razones comprensibles aumenta la desconfianza y reduce la interacción continua con el sistema.
En resumen, no basta que la IA sea útil; debe ser comprensible para que las personas mayores la consideren fiable y la integren en su vida diaria.
Hallazgos principales del estudio
El informe identifica tres demandas recurrentes entre las personas mayores: primero, explicaciones concretas sobre la procedencia de una recomendación; segundo, un lenguaje accesible que evite jerga técnica; tercero, opciones para controlar o cuestionar la sugerencia. Los participantes valoraron especialmente cuando el agente ofrecía una breve razón junto a la acción propuesta, por ejemplo: «recomiendo esto porque…».
La investigación también observó que la interfaz por voz debe complementar la explicación con alternativas visuales o auditivas para reforzar la comprensión. Estos elementos combinados incrementan la percepción de transparencia y reducen la sensación de dependencia involuntaria.
Por qué la explicabilidad importa
Más allá del diseño, la explicabilidad cumple funciones cognitivas y sociales. Para muchas personas mayores, comprender el razonamiento detrás de una sugerencia permite evaluar riesgos, mantener autonomía y evitar errores que afecten su bienestar.
La explicabilidad no es solo una etiqueta técnica: es una herramienta que facilita la toma de decisiones informada y la conservación del control personal. Cuando la IA comunica sus motivos de manera clara, se genera una relación de confianza sostenida que impulsa el uso responsable y repetido del servicio.
Capacidades cognitivas y preferencias
El estudio muestra que las preferencias varían según experiencias previas con tecnología y capacidades cognitivas. Algunas personas mayores prefieren explicaciones breves y directas; otras demandan pasos detallados para replicar o verificar una acción. Incorporar opciones de nivel de detalle dentro del propio agente —por ejemplo, «quieres más detalles» o «explícalo de forma simple»— permite adaptar la interacción. La inclusión de controles de transparencia y la posibilidad de solicitar aclaraciones fortalece la confianza y facilita la inclusión digital de usuarios con distintos perfiles.
Seguridad, ética y autonomía
La explicabilidad también tiene implicaciones de seguridad y ética: cuando las personas mayores entienden cómo y por qué la IA actúa, pueden identificar errores, sesgos o acciones no deseadas antes de que causen daño. El informe recalca la necesidad de mecanismos que permitan auditar decisiones y rechazar sugerencias fácilmente. En este sentido, la transparencia contribuye a la protección frente a decisiones automatizadas que afecten la salud, finanzas o la vida cotidiana de usuarios vulnerables.
Recomendaciones prácticas para diseñadores y proveedores
Para transformar estos hallazgos en productos útiles, los autores proponen varias prácticas: integrar explicaciones breves por defecto, ofrecer niveles de detalle bajo demanda, usar lenguaje natural libre de jerga y combinar salidas por voz con soporte visual o textual. Además, recomiendan pruebas con usuarios mayores en fases tempranas de diseño y la inclusión de indicadores de confianza que muestren la certeza del sistema. Adoptar estas medidas ayuda a que los agentes conversacionales no solo sean eficaces técnicamente, sino también percibidos como fiables por quienes más necesitan claridad.
Diseño de diálogo y transparencia
Implementar flujos conversacionales que anticipen preguntas y permitan rechazar o modificar sugerencias es esencial. Los equipos deben documentar y comunicar las fuentes de datos y las limitaciones del modelo de forma accesible. Finalmente, el estudio de AI Caring invita a considerar la explicabilidad como un criterio de éxito tan relevante como la precisión o la latencia: para las personas mayores, saber el porqué de una recomendación es condición necesaria para confiar y adoptar la IA en su vida diaria.

