En febrero de 2026, Mark Zuckerberg, director ejecutivo de Meta, se presentó ante un tribunal de Los Ángeles para brindar testimonio en un proceso que pone en el centro la relación entre el diseño de las plataformas y la salud mental de usuarios jóvenes. Este juicio es parte de una batería de demandas que buscan establecer si características técnicas y decisiones de producto contribuyeron a un uso compulsivo por parte de menores.
El pleito, conocido como un bellwether trial o caso piloto, puede servir como referencia para cerca de 1.500 acciones legales relacionadas. La demandante principal, identificada como KGM, afirma que su consumo intensivo de Instagram y YouTube desde la infancia agravó su depresión y pensamientos suicidas, y que elementos del producto favorecieron esa progresión.
Qué se discute en el juicio
Los abogados de las familias acusan a Meta y otras empresas tecnológicas de integrar deliberadamente funciones destinadas a maximizar el tiempo de uso, como la reproducción automática, filtros de modificación de apariencias y algoritmos de recomendación hiperpersonalizados.
La demanda se enfoca menos en publicaciones concretas y más en el diseño adictivo de los servicios, una estrategia legal pensada para sortear las protecciones que normalmente limitan la responsabilidad de las plataformas por contenido de terceros.
Pruebas y correos internos
Durante la audiencia, la acusación exhibió correos electrónicos antiguos en los que se discutían objetivos internos para aumentar el tiempo de permanencia de usuarios en términos porcentuales. Zuckerberg reconoció que, en el pasado, la compañía planteó metas relacionadas con el tiempo en la aplicación, pero afirmó que esa práctica cambió y que Meta ha modificado su enfoque hacia otras prioridades.
La defensa de Zuckerberg y la postura de Meta
En su declaración ante el jurado, Zuckerberg sostuvo que las plataformas prohíben el acceso a menores de 13 años y que, cuando se registran usuarios más jóvenes, ocurre una violación de las normas por parte de tutores o de las propias cuentas. También afirmó que la empresa intenta ayudar a quienes usan sus servicios y que no existe una causalidad directa y exclusiva entre Instagram y los problemas de salud mental de la demandante.
Contexto y declaraciones internas
El testimonio del director de Instagram, Adam Mosseri, aportó otro matiz: calificó el fenómeno como uso problemático más que como una adicción clínica reconocida, comparándolo con ver televisión en exceso. Aun así, investigadores y algunos familiares de víctimas sostienen que las prácticas de diseño pueden tener efectos neuronales y conductuales comparables al de productos diseñados para generar dependencia.
Implicaciones legales y sociales
Si el jurado determina que el diseño de las plataformas fue un factor determinante en el daño alegado, el fallo podría abrir una vía para responsabilizar a empresas tecnológicas por decisiones de producto, no solo por contenido. Las consecuencias irían desde indemnizaciones económicas significativas hasta reformas en políticas de producto, auditorías de algoritmos y cambios regulatorios enfocados en la protección de menores.
El caso también se desarrolla en un marco político más amplio: audiencias en el Congreso y demandas públicas han intensificado la presión sobre Meta para mejorar las herramientas de seguridad infantil y revisar prácticas de monetización. Para las familias afectadas, las palabras públicas de los ejecutivos —incluida una disculpa en una audiencia del Senado citada en medios— no siempre han sido suficientes.
Qué sigue y por qué importa
El veredicto de este juicio piloto será observado atentamente por tribunales, reguladores y empresas de tecnología. Más allá de la posible repercusión económica para Meta, la decisión podría redefinir estándares sobre responsabilidad de producto, transparencia algorítmica y salvaguardas para jóvenes usuarios. Para millones de familias y para desarrolladores de plataformas, el fallo puede marcar el inicio de normas más estrictas sobre cómo se diseñan y gestionan los servicios digitales.

