Una amplia coalición formada por más de setenta organizaciones de derechos civiles, defensa de víctimas, salud reproductiva, comunidades LGBTQ+, sindicatos y grupos de inmigración ha pedido públicamente a Meta que desista de integrar reconocimiento facial en las gafas inteligentes que fabrica junto a EssilorLuxottica para marcas como Ray-Ban y Oakley. El sistema que preocupa a estos colectivos se conoce internamente como Name Tag, y sus críticos sostienen que convertiría dispositivos cotidianos en herramientas capaces de identificar a desconocidos sin su consentimiento y sin avisos efectivos en espacios públicos.
Según los grupos, la amenaza no es hipotética: documentos internos filtrados muestran que Meta planeó aprovechar un «entorno político dinámico» para lanzar la función, esperando que la atención de la sociedad civil estuviera desviada. Exigen, además, que la compañía divulgue cualquier uso conocido de sus gafas en casos de acoso o violencia doméstica y que revele contactos con agencias federales como ICE y CBP. Estas peticiones se complementan con la demanda de consultar a expertos independientes antes de integrar cualquier forma de identificación biométrica en productos de consumo.
Cómo funcionaría la tecnología y qué versiones se barajan
Los detalles revelados sobre Name Tag indican que la función se apoyaría en el asistente de inteligencia artificial integrado en las gafas para mostrar datos sobre personas que el usuario tiene en su campo visual. Los ingenieros valoraron al menos dos variantes: una limitada a identificar a personas con las que el portador ya está conectado en plataformas de Meta, y otra más amplia capaz de reconocer a cualquier persona con una cuenta pública en servicios como Instagram.
En ambos casos, el poder de la tecnología radica en ligar rostros a perfiles y a información adicional disponible en línea.
Los críticos recuerdan que las gafas actuales permiten grabar con discreción por medio de una pequeña luz que puede pasar desapercibida, lo que ya genera riesgos de invasión de intimidad. Añadir reconocimiento en tiempo real transformaría esas grabaciones en bases de datos identificables por nombre, incrementando la posibilidad de que acosadores, agentes estatales o terceros con malas intenciones localicen y sigan a personas en protestas, lugares religiosos o citas médicas.
Para los grupos firmantes, ningún mecanismo de exclusión o ajuste de diseño solucionaría esa amenaza fundamental.
Precedentes legales y presión sobre Meta
La preocupación de la sociedad civil llega en un contexto de litigios y sanciones que ya han afectado a Meta en materia de biometría. En noviembre de 2026 la empresa anunció el cierre del sistema de etiquetado fotográfico de Facebook y la eliminación de las plantillas faciales de más de mil millones de usuarios, reconociendo la necesidad de sopesar usos positivos frente a crecientes dudas sociales. Aun así, los años anteriores incluyeron acuerdos millonarios: Meta pagó alrededor de $2 mil millones para resolver demandas biométricas en Illinois y Texas, y en 2019 afrontó una multa de $5 mil millones por cuestiones de privacidad ante la FTC.
Además, la presión judicial reciente se ha intensificado: en marzo un jurado en Los Ángeles concluyó que Meta y otras plataformas fueron negligentes en el diseño de productos que dañan a usuarios jóvenes, y se han sucedido fallos y recursos que cuestionan el alcance protector de normas como Section 230 frente a demandas de consumidores. Estos precedentes alimentan la argumentación de que desplegar reconocimiento facial en dispositivos personales sin un marco regulatorio claro multiplicaría riesgos y responsabilidades legales.
Qué piden las organizaciones y qué opciones tiene Meta
En su carta dirigida a Mark Zuckerberg, la coalición solicita la supresión definitiva de Name Tag, la publicación de incidentes en que las gafas hayan servido para acoso o violencia, la revelación de cualquier diálogo con fuerzas federales y el compromiso de consultar a la sociedad civil y a expertos independientes antes de cualquier integración de identificación biométrica. Según estos grupos, ni los controles de privacidad ni los avisos a los usuarios resuelven el problema central: las personas en espacios públicos no pueden ofrecer un consentimiento significativo para ser identificadas.
Transparencia y rendición de cuentas
Como alternativa responsable, los defensores proponen auditorías públicas, evaluaciones independientes y la paralización de funciones que permitan identificación facial hasta que exista marcos legales y salvaguardias verificables. Subrayan que la transparencia sobre contactos con autoridades y el historial de uso en casos de abuso son condiciones mínimas para restaurar confianza. Para la coalición, cualquier intento de lanzar tecnologías de reconocimiento aprovechando distracciones políticas sería una estrategia inaceptable y peligrosa para la libre circulación y la seguridad de comunidades vulnerables.

