Un equipo de universidades del Reino Unido ha propuesto una vía distinta para mejorar la calidad de los sistemas automatizados: incluir a personas sin formación técnica en la creación y evaluación de herramientas basadas en Inteligencia artificial. La investigación analiza cómo la colaboración entre desarrolladores y ciudadanos puede revelar efectos no previstos y decisiones problemáticas, a partir de pruebas con dos aplicaciones reales. El estudio, que será presentado en una conferencia internacional relevante del ámbito informático, fue publicado el 02/04/2026 a las 19:30 y plantea alternativas concretas para integrar a la sociedad en procesos de supervisión.
La propuesta se articula alrededor de la idea de auditoría participativa, entendida como un método para recopilar juicios públicos sobre riesgos, beneficios y prioridades éticas antes y después del despliegue de un sistema. Lejos de reemplazar a los expertos, esta metodología busca complementar la revisión técnica con percepciones sociales que identifican problemas prácticos y valores colectivos. En ese sentido, transparencia, justicia y rendición de cuentas emergen como términos clave que los autores recomiendan integrar en todo ciclo de vida del desarrollo.
Qué hicieron los investigadores
El estudio describe un experimento participativo en el que ciudadanos fueron invitados a evaluar impactos potenciales de dos sistemas concretos; uno orientado a servicios y otro a decisiones automatizadas en contexto público. Los participantes, sin formación previa en programación, recibieron información accesible y escenarios prácticos para valorar resultados posibles. A través de talleres y encuestas se registraron preocupaciones sobre sesgos, errores y consecuencias no deseadas.
Los investigadores sistematizaron estas observaciones y las compararon con hallazgos técnicos, mostrando que la percepción ciudadana aporta matices y prioridades que los equipos técnicos suelen pasar por alto.
Por qué la participación pública cambia el panorama
Incluir a la ciudadanía no solo añade una capa de legitimidad, sino que permite detectar riesgos sociales que las métricas técnicas no miden fácilmente. Por ejemplo, lo que un algoritmo considera una decisión «eficiente» puede resultar injusto para colectivos específicos; la mirada externa actúa como un espejo que refleja usos problemáticos.
La investigación argumenta que la participación pública puede funcionar como un filtro social: reduce sorpresas en producción y orienta prioridades de corrección. Además, promueve una cultura de diseño donde equidad y transparencia no son solo etiquetas sino criterios operativos.
Cómo aplicarlo en proyectos reales
Diseño y evaluación colaborativa
Los autores proponen pasos prácticos: primero, identificar puntos críticos del ciclo de vida donde la voz pública aporte más valor; segundo, diseñar materiales explicativos y escenarios comprensibles; tercero, realizar talleres deliberativos y análisis conjuntos con desarrolladores. Este enfoque transforma el testeo en un intercambio bidireccional: los técnicos obtienen feedback accionable y los participantes entienden limitaciones y trade-offs. La incorporación de paneles ciudadanos o comités asesores también puede institucionalizar la revisión, garantizando que la responsabilidad no quede solo en manos de equipos privados.
Retos prácticos y éticos
No obstante, la auditoría participativa enfrenta dificultades: cómo reclutar muestras representativas, cómo evitar que la participación reproduzca sesgos sociales y cómo integrar resultados cualitativos en procesos de ingeniería. Los investigadores alertan sobre la tentación de realizar ejercicios simbólicos sin impacto real. Para ser efectiva, la metodología requiere recursos, tiempo y compromiso institucional. También es crucial proteger la confidencialidad y garantizar que la participación no exponga a las personas a riesgos legales o sociales.
Implicaciones para reguladores y empresas
El estudio sugiere que reguladores y empresas tecnológicas deberían explorar marcos que reconozcan la auditoría participativa como complemento a las evaluaciones técnicas. Incorporar voces externas puede alimentar procesos de gobernanza y ayudar a definir estándares más alineados con valores públicos. Al final, la recomendación central es sencilla: combinar el rigor técnico con la sabiduría colectiva para construir sistemas más robustos y legítimos.
Conclusión
La investigación presentada por universidades del Reino Unido plantea una idea práctica y replicable: la participación de ciudadanos sin experiencia en IA puede enriquecer la evaluación de sistemas automatizados, detectar sesgos y aumentar la confianza pública. Aunque no sustituye el trabajo técnico, la auditoría participativa emerge como una herramienta valiosa para orientar decisiones de diseño y políticas. Adoptarla implica desafíos, pero también ofrece una vía concreta para que la tecnología responda mejor a las expectativas y preocupaciones de la sociedad.

