in

Meta registra pantallas y teclas de empleados para mejorar sus agentes de IA

Meta implementa una herramienta interna que captura interacciones de empleados con aplicaciones para mejorar agentes de IA, y eso abre nuevas preguntas sobre privacidad y regulación

Meta registra pantallas y teclas de empleados para mejorar sus agentes de IA

El anuncio de Meta de recopilar pulsaciones de teclas, movimientos del mouse y algunas capturas de pantalla para alimentar sus modelos de IA fue reportado por medios como Reuters y TechCrunch. Según la comunicación interna vista por la prensa, la iniciativa busca obtener ejemplos reales de uso en aplicaciones laborales concretas; la compañía describe la herramienta como un instrumento interno diseñado para enseñar a sus agentes a reproducir comportamientos humanos al interactuar con interfaces.

La noticia, fechada el 21 de abril de 2026 (April 21, 2026), provocó reacciones inmediatas en el sector tecnológico y entre defensores de la privacidad.

Qué datos se recogen y con qué objetivo

La herramienta se ejecutará solo en una lista determinada de aplicaciones y sitios de trabajo y registrará acciones como clics, uso de atajos de teclado, navegación por menús desplegables y, en ciertos casos, capturas de pantalla.

Meta argumenta que estos registros permiten a sus agentes aprender a completar tareas cotidianas en computadoras, desde rellenar formularios hasta automatizar flujos de trabajo básicos. La compañía asegura que existen mecanismos para filtrar y proteger información sensible, y que los datos se emplean exclusivamente con fines de entrenamiento. El objetivo técnico es reducir la brecha entre los modelos que manejan lenguaje y la capacidad práctica de operar aplicaciones de oficina.

Preocupaciones sobre privacidad y legalidad

Especialistas y defensores de derechos digitales han señalado que rastrear interacciones internas añade una capa nueva a la vigilancia laboral. La práctica se enmarca en una tendencia más amplia: empresas que exploran archivos internos —como archivo de Slack o tickets de Jira de startups— para aumentar conjuntos de datos. Las dudas se centran en la eficacia de las técnicas de anonimización, el riesgo de filtración de información sensible y la ausencia de un consentimiento claro y específico por parte de los empleados.

Además, la legalidad varía según jurisdicción: normativas como el GDPR y la CCPA imponen requisitos distintos que podrían condicionar la extensión de esta práctica.

Presión industrial y contexto competitivo

La búsqueda de datos operativos obedece a una carrera por desplegar agentes capaces de realizar tareas administrativas sin intervención humana. En ese marco, se han conocido otras iniciativas: por ejemplo, peticiones a contratistas externos para aportar documentos de trabajo para entrenamiento, y movimientos corporativos como la compra de participaciones en empresas de etiquetado de datos. Meta, que amplió su inversión en capacidades de etiquetado y modelos, ha acelerado su presupuesto en IA mientras ajusta plantilla; estas decisiones muestran cómo la necesidad de datos se cruza con objetivos comerciales y reestructuraciones internas.

Implementación técnica y salvaguardias

En los documentos técnicos que han trascendido, la infraestructura recoge datos bajo criterios de monitorización selectiva, aplica filtros automáticos para intentar redacción de elementos sensibles, y limita el acceso a equipos reducidos mediante controles estrictos. También se mencionan prácticas estándar como cifrado en tránsito y en reposo, y políticas de retención limitada para eliminar registros tras el uso. Pese a ello, expertos en ciberseguridad advierten que cualquier pipeline de entrenamiento preserva riesgo: cuanto más crudos y completos son los datos, mayor es su utilidad para el modelo y también mayor la posibilidad de exposición accidental o reidentificación.

Impacto en la cultura laboral y la confianza

En el plano humano, algunas fuentes internas describen reacciones mixtas entre empleados: comprensión técnica por parte de ingenieros y inquietud por parte de personal no técnico. Los psicólogos organizacionales han señalado que la percepción de vigilancia constante puede reducir la confianza y la disposición a experimentar, dos factores clave para la innovación. Además, existe el temor de que los borradores, pruebas o comunicaciones internas acaben integrándose en conjuntos de entrenamiento y, por tanto, perviertan procesos creativos o revelen estrategias antes de tiempo.

Qué puede venir y qué exigirán las regulaciones

La iniciativa de Meta da pie a debates regulatorios y a posibles cambios en la práctica industrial: mayores exigencias de transparencia sobre fuentes de datos, derechos específicos para empleados sobre el uso de sus interacciones y un impulso hacia datos sintéticos o conjuntos creados ad hoc para reducir riesgos. Los analistas también anticipan acuerdos sectoriales sobre buenas prácticas en la cadena de suministro de datos. En definitiva, la decisión de grabar pulsaciones y movimientos no solo plantea desafíos técnicos, sino también dilemas éticos y legales que requerirán mecanismos claros para equilibrar innovación y protección de derechos.

¿Qué piensas?

Escrito por Chiara Ferrari

Ha gestionado estrategias de sostenibilidad para multinacionales con facturaciones de nueve cifras. Sabe distinguir el greenwashing real de las empresas que realmente lo intentan - porque ha visto ambos desde dentro. Los números importan más que los eslóganes.

Qué propone Fairphone para garantizar un salario digno en la cadena de suministro móvil

Qué propone Fairphone para garantizar un salario digno en la cadena de suministro móvil

Cómo elegir un robot aspirador según pruebas y uso real

Cómo elegir un robot aspirador según pruebas y uso real