La rápida adopción de sistemas de Inteligencia artificial ha creado la necesidad de instrumentos prácticos que permitan evaluar no solo su rendimiento técnico, sino también sus consecuencias sociales. Con ese objetivo, un consorcio liderado por la Universidad de Glasgow ha puesto a disposición una herramienta gratuita desarrollada en el marco del proyecto Participatory Harm Auditing Workbenches and Methodologies (PHAWM), que facilita auditorías detalladas y accesibles para distintos públicos.
La publicación pública de la herramienta, anunciada el 18/02/2026, responde a la urgencia de contar con procesos rigurosos de evaluación ante la expansión de la IA en sectores como vivienda, empleo, finanzas, policía, educación y salud.
Además, el recurso está pensado para apoyar la implementación de políticas regulatorias como la AI Act de la UE, introducida en 2026.
Qué ofrece la herramienta y a quién va dirigida
El workbench de PHAWM es un paquete open source que combina metodología y guías prácticas para realizar una auditoría participativa de sistemas de IA. No se requiere experiencia técnica profunda: la interfaz y los materiales están diseñados para que equipos de organizaciones, responsables políticos, comunidades afectadas y público general puedan identificar riesgos, sesgos y puntos débiles en aplicaciones generativas y predictivas.
Entre sus funcionalidades destacan plantillas para mapear actores afectados, listas de verificación sobre equidad y precisión, y procedimientos para incorporar retroalimentación de personas que normalmente quedan excluidas de los procesos de evaluación. De este modo, la herramienta busca minimizar la disonancia entre perspectivas técnicas y sociales.
Auditorías inclusivas: por qué importan
Muchas auditorías actuales se centran en métricas y arquitecturas de modelos, realizadas por expertos en aprendizaje automático que, con frecuencia, desconocen impactos culturales o comunitarios.
La propuesta de PHAWM incorpora métodos participativos que convierten a usuarios y afectados en colaboradores del proceso, permitiendo detectar consecuencias no previstas, como decisiones discriminatorias en servicios críticos.
Origen, financiación y colaboración
El proyecto PHAWM se lanzó en mayo de 2026 con el apoyo financiero de Responsible AI UK (RAi UK), que aportó £3.5m para desarrollar metodologías y herramientas prácticas. La iniciativa reúne a más de 30 investigadores de siete universidades del Reino Unido y cuenta con 28 organizaciones asociadas de distinto tipo —instituciones públicas, ONGs y empresas— para validar y aplicar el workbench en contextos reales.
La coordinación académica la lidera la profesora Simone Stumpf, de la School of Computing Science de la Universidad de Glasgow. Según Stumpf, las aplicaciones generativas y predictivas pueden aportar mejoras en la prestación de servicios, pero requieren controles humanos constantes para evitar que errores técnicos traduzcan en perjuicios para personas reales.
Acceso y recursos complementarios
La herramienta y su marco metodológico están disponibles sin coste en la web del proyecto. Además del software, el paquete incluye guías de uso, plantillas de participación comunitaria y recomendaciones para integrar la auditoría en procesos internos de toma de decisiones. Esto facilita que tanto organismos públicos como pequeñas organizaciones puedan incorporar revisiones periódicas.
Impacto esperado y desafíos futuros
Al democratizar las auditorías de IA, el workbench pretende mejorar la transparencia y la rendición de cuentas en aplicaciones que influyen en decisiones sensibles. Su enfoque participativo aspira a reducir sesgos, a aumentar la confianza pública y a generar documentación útil para reguladores y responsables de políticas.
No obstante, la adopción generalizada plantea retos: asegurar que las auditorías se realicen con rigor, capacitar a auditores no técnicos, y fomentar la integración de hallazgos en procesos de diseño y despliegue. Asimismo, será clave mantener el software actualizado frente a la rápida evolución de modelos y prácticas en IA.
¿Por qué esta herramienta es relevante ahora?
La combinación de avances tecnológicos, marcos regulatorios emergentes como la AI Act y la presión pública por sistemas más justos hace que soluciones como la de PHAWM resulten oportunas. Al ofrecer recursos prácticos y abiertos, el proyecto contribuye a que organizaciones de distinta escala y contexto puedan auditar y mejorar sus sistemas, evitando consecuencias adversas en servicios esenciales.


