Una modelo e influencer china, conocida públicamente como Christine Li, vio recientemente una versión replicada de su rostro en un programa ultra corto que circuló por la plataforma Hongguo, vinculada al grupo ByteDance. Al conocer la existencia del episodio, Li describió una mezcla de sorpresa, rabia y miedo al reconocer en la pantalla gestos y rasgos que venía publicando en redes sociales años atrás. El caso ha puesto en el centro del debate conceptos como deepfake y microdrama, y ha abierto preguntas sobre quién debe vigilar la creación y difusión de contenidos generados por inteligencia artificial.
La reacción pública fue rápida: seguidores y colegas compartieron capturas que comparaban fotografías originales con los personajes del episodio titulado «The Peach Blossom Hairpin», y la similitud fue suficiente para que Li anunciara su intención de demandar a productores y a la plataforma. Junto a otra persona afectada —un estilista que usó el seudónimo Baicai—, mostró material que, según ellos, prueba que se emplearon imágenes previas para entrenar modelos y crear personajes que actuaban de forma difamatoria.
Este tipo de situaciones destaca la necesidad de definir responsabilidades entre creadores, plataformas y terceros que usan herramientas de IA.
Qué pasó en la plataforma y cómo se propagó
Los microdramas son episodios muy cortos, típicamente de dos o tres minutos, diseñados para consumo rápido en dispositivos móviles; microdrama alude a esta forma condensada de ficción con cliffhangers constantes. Hongguo aloja miles de estos contenidos, tanto de producción tradicional como generados por IA, y según cifras citadas públicamente contaba con gran número de usuarios activos mensuales en su cuota de mercado.
En el caso denunciado, AFP constató que el episodio controversial permaneció accesible durante varios días y que posteriormente los personajes cuestionados fueron reemplazados sin una explicación pública inicial sobre el origen de las imágenes utilizadas.
La plataforma emitió declaraciones asegurando que la serie fue retirada por violar normas y obligaciones contractuales, y que se han intensificado las revisiones. No obstante, Li y Baicai reclaman mayor transparencia: piden identificar a los creadores y a las empresas detrás de la producción, ya que hay versiones contradictorias sobre quién registró y subió el contenido.
La situación ilustra cómo en ecosistemas digitales con herramientas de generación automática es fácil que un material escale antes de que los mecanismos de control manual o automatizado actúen con eficacia.
Marco legal y responsabilidades
En China, las normas exigen que las plataformas actúen como primer filtro para contenidos potencialmente problemáticos; la autoridad competente puede ordenar la retirada forzosa si no se cumplen las revisiones obligatorias. Los afectados pueden además denunciar ante cuerpos de ciberespacio para que se apliquen sanciones administrativas si la plataforma conocía la infracción y no reaccionó. Abogados que representan a las víctimas advierten que la publicación de una persona en un contexto degradante puede constituir una vulneración de derechos de la imagen y derecho al honor, y por ello buscan recursos civiles contra productores y anfitriones del contenido.
El precedente judicial reciente citado por expertos incluye una sentencia de 2026 en Beijing que obligó a una compañía a pedir disculpas y compensar a un famoso tras permitir que su imagen y nombre se usaran para generar una persona virtual que mantenía intercambios íntimos. No obstante, los juristas señalan que la indemnización para personas no célebres suele ser limitada por el escaso valor comercial reconocido a una imagen ordinaria. Además, aunque desde abril se incrementaron los requisitos de registro y licencia para animaciones generadas por IA, existen vías para que productores opacos operen mediante entidades temporales o servidores en el extranjero, lo que complica la trazabilidad.
Responsabilidad de plataformas y transparencia
Hongguo declaró haber gestionado cientos de microdramas que vulneraban normas, y anunció medidas para reforzar autorizaciones de creadores y controles de contenido; aún así, las víctimas exigen más datos sobre la identidad de los responsables. El hecho de que Bytedance haya remitido las consultas a Hongguo deja en evidencia la necesidad de procesos internos más claros: las plataformas deben balancear innovación y cumplimiento, implementando sistemas de verificación que detecten posibles usos no autorizados de imágenes antes de la difusión masiva.
Impacto profesional y medidas necesarias
Para Li, la exposición pública como personaje polémico representa un riesgo directo a su carrera como modelo y creadora de contenidos: estar asociada a la controversia puede cerrar oportunidades laborales. Baicai, por su parte, pide mayor protección para personas que aparecen sin permiso en obras que afectan su reputación. Ambos reclaman soluciones prácticas: auditorías de contenido con trazabilidad, mecanismos de reclamación eficaces y sanciones disuasorias. En definitiva, el caso subraya la urgencia de adaptar marcos legales y herramientas técnicas para que la inteligencia artificial no fragmente derechos individuales ni permita la explotación impune de imágenes personales.

