in

Meta planea reemplazar evaluadores humanos con inteligencia artificial

La compañía busca automatizar el 90% de las evaluaciones de riesgos utilizando IA.

Immagine che rappresenta l'uso dell'AI da parte di Meta
Meta annuncia l'uso dell'intelligenza artificiale per le valutazioni.

La transición hacia la automatización en Meta

Según documentos internos revisados por NPR, Meta está en proceso de reemplazar a los evaluadores de riesgos humanos con inteligencia artificial (IA). Esta decisión se enmarca en un esfuerzo más amplio de la compañía por alcanzar una automatización completa en sus operaciones. Históricamente, Meta ha confiado en analistas humanos para evaluar los posibles daños que nuevas tecnologías pueden causar en sus plataformas, un proceso conocido como revisiones de privacidad e integridad.

El papel de la inteligencia artificial en la evaluación de riesgos

En el futuro cercano, estas evaluaciones esenciales podrían ser asumidas por bots, ya que la empresa busca automatizar el 90% de este trabajo utilizando IA. A pesar de haber afirmado anteriormente que la IA solo se utilizaría para evaluar lanzamientos de «bajo riesgo», Meta está comenzando a implementar esta tecnología en decisiones relacionadas con la seguridad de la IA, riesgos para los jóvenes e integridad, que incluye la moderación de contenido violento y desinformación.

Implicaciones de la automatización para los usuarios

Con el nuevo sistema, los equipos de producto envían cuestionarios y reciben decisiones y recomendaciones de riesgo de manera instantánea, lo que otorga a los ingenieros mayores poderes de decisión. Aunque la automatización puede acelerar las actualizaciones de aplicaciones y lanzamientos de desarrolladores, fuentes internas advierten que también podría representar un mayor riesgo para miles de millones de usuarios, incluyendo amenazas innecesarias a la privacidad de los datos.

Reacciones y preocupaciones sobre la moderación de contenido

En abril, la junta de supervisión de Meta publicó una serie de decisiones que validaron simultáneamente la postura de la compañía sobre permitir discursos «controversiales» y criticaron sus políticas de moderación de contenido. La junta enfatizó que es esencial que Meta identifique y aborde los impactos adversos en los derechos humanos que puedan resultar de estos cambios, especialmente en países que enfrentan crisis actuales o recientes, como conflictos armados.

El futuro de la verificación de hechos en Meta

Más temprano ese mes, Meta cerró su programa de verificación de hechos humanos, reemplazándolo con notas comunitarias de origen colectivo y confiando más en su algoritmo de moderación de contenido. Este sistema interno ha demostrado ser propenso a pasar por alto y etiquetar incorrectamente la desinformación y otras publicaciones que violan las políticas de contenido recientemente reformadas de la compañía.

¿Qué piensas?

Firma de contrato sindical en la industria de videojuegos

Acuerdo histórico de contrato sindical en la industria de los videojuegos

Elad Gil discute la inteligencia artificial y roll-ups

El futuro de la inteligencia artificial: la apuesta de Elad Gil en roll-ups