Flock, conocido por su sistema de reconocimiento de matrículas automatizado y cámaras impulsadas por inteligencia artificial, ha revelado una práctica controvertida en la que depende de trabajadores freelance de plataformas como Upwork. Estos trabajadores son responsables de entrenar algoritmos de aprendizaje automático, utilizando imágenes que capturan momentos de la vida cotidiana en Estados Unidos. Un análisis de documentos filtrados por 404 Media ha arrojado luz sobre esta práctica, planteando serias preguntas sobre la privacidad y la seguridad de los datos recogidos.
La tecnología de Flock se ha expandido rápidamente, con miles de cámaras desplegadas en comunidades estadounidenses, utilizadas por la policía para investigar delitos como el robo de automóviles. Sin embargo, la necesidad de capacitar a algoritmos que monitorean a los ciudadanos plantea preocupaciones sobre quién tiene acceso a la información y cómo se gestiona.
La operación detrás de la inteligencia artificial de Flock
El sistema de Flock es capaz de escanear constantemente detalles de los vehículos en movimiento, incluyendo la matrícula, el color y el modelo.
Esto permite a las fuerzas del orden realizar búsquedas exhaustivas en una base de datos nacional para rastrear vehículos. Sin embargo, estos registros se obtienen a menudo sin una orden judicial, lo que ha llevado a la ACLU y a la Electronic Frontier Foundation a demandar ciudades que utilizan este tipo de tecnología sin la debida supervisión.
La utilización de trabajadores freelance
El personal que entrena a los algoritmos de Flock incluye trabajadores ubicados en el extranjero.
Estos individuos, muchos de los cuales se encuentran en Filipinas, son contratados a través de Upwork, donde brindan servicios de etiquetado y anotación de datos. El material filtrado indica que estas tareas incluyen la categorización de vehículos, la transcripción de matrículas y el análisis de audios, como la detección de gritos. Este proceso de entrenamiento es vital para mejorar la precisión de los sistemas de vigilancia de Flock.
Implicaciones de la vigilancia masiva
La tecnología de reconocimiento de matrículas automatizada no solo plantea preocupaciones sobre la privacidad individual, sino que también genera inquietudes sobre el potencial abuso de poder por parte de las autoridades. Los registros de vehículos pueden ser utilizados para monitorear a comunidades vulnerables, lo que puede llevar a la criminalización de conductas que antes no eran perseguidas. La ACLU ha expresado su preocupación por cómo esta tecnología puede afectar negativamente a inmigrantes y a personas que buscan atención médica fuera del estado.
La falta de regulaciones adecuadas
A pesar de que la implementación de cámaras de reconocimiento de matrículas está en aumento, la falta de regulaciones estatales claras deja a los ciudadanos en una posición vulnerable. En Connecticut, por ejemplo, más de 40 departamentos de policía están utilizando esta tecnología sin un registro centralizado o supervisión efectiva. La ACLU ha solicitado una moratoria en el uso de estos dispositivos hasta que se establezcan leyes que protejan la información de los conductores y limiten la posibilidad de abuso.
Flock, en respuesta a las preocupaciones sobre la privacidad, argumenta que su tecnología ayuda a reducir la delincuencia y conectar a las comunidades con la policía. Sin embargo, el uso compartido de datos sensibles entre agencias, incluyendo ICE, plantea serias dudas sobre la seguridad y la ética de su sistema. La falta de transparencia en cómo se recopilan y utilizan estos datos resalta la necesidad de un debate público sobre el futuro de la vigilancia en Estados Unidos.

