La transición hacia la automatización en Meta
Según documentos internos revisados por NPR, Meta está en proceso de reemplazar a los evaluadores de riesgos humanos con inteligencia artificial (IA). Esta decisión se enmarca en un esfuerzo más amplio de la compañía por alcanzar una automatización completa en sus operaciones. Históricamente, Meta ha confiado en analistas humanos para evaluar los posibles daños que nuevas tecnologías pueden causar en sus plataformas, un proceso conocido como revisiones de privacidad e integridad.
El papel de la inteligencia artificial en la evaluación de riesgos
En el futuro cercano, estas evaluaciones esenciales podrían ser asumidas por bots, ya que la empresa busca automatizar el 90% de este trabajo utilizando IA. A pesar de haber afirmado anteriormente que la IA solo se utilizaría para evaluar lanzamientos de «bajo riesgo», Meta está comenzando a implementar esta tecnología en decisiones relacionadas con la seguridad de la IA, riesgos para los jóvenes e integridad, que incluye la moderación de contenido violento y desinformación.
Implicaciones de la automatización para los usuarios
Con el nuevo sistema, los equipos de producto envían cuestionarios y reciben decisiones y recomendaciones de riesgo de manera instantánea, lo que otorga a los ingenieros mayores poderes de decisión. Aunque la automatización puede acelerar las actualizaciones de aplicaciones y lanzamientos de desarrolladores, fuentes internas advierten que también podría representar un mayor riesgo para miles de millones de usuarios, incluyendo amenazas innecesarias a la privacidad de los datos.
Reacciones y preocupaciones sobre la moderación de contenido
En abril, la junta de supervisión de Meta publicó una serie de decisiones que validaron simultáneamente la postura de la compañía sobre permitir discursos «controversiales» y criticaron sus políticas de moderación de contenido. La junta enfatizó que es esencial que Meta identifique y aborde los impactos adversos en los derechos humanos que puedan resultar de estos cambios, especialmente en países que enfrentan crisis actuales o recientes, como conflictos armados.
El futuro de la verificación de hechos en Meta
Más temprano ese mes, Meta cerró su programa de verificación de hechos humanos, reemplazándolo con notas comunitarias de origen colectivo y confiando más en su algoritmo de moderación de contenido. Este sistema interno ha demostrado ser propenso a pasar por alto y etiquetar incorrectamente la desinformación y otras publicaciones que violan las políticas de contenido recientemente reformadas de la compañía.