WeTransfer, la conocida plataforma para compartir archivos, ha estado en el ojo del huracán tras una reciente actualización de sus términos de servicio. ¿La razón? Una insinuación sobre el uso de los datos subidos para entrenar modelos de inteligencia artificial (IA). Ante la creciente inquietud de sus usuarios, la empresa se vio obligada a aclarar su postura, reafirmando que no tiene planes de utilizar los archivos de sus clientes con este fin.
¿Qué desató la controversia?
El problema estalló cuando WeTransfer decidió actualizar su política de servicio. En esta nueva redacción, se sugería que cualquier archivo enviado podría ser utilizado para mejorar herramientas de aprendizaje automático. Esta ambigüedad generó una ola de inquietud entre los usuarios, sobre todo entre aquellos profesionales creativos que dependen de la plataforma para compartir su trabajo. ¿Quién no se sentiría incómodo ante la posibilidad de que su contenido sea utilizado sin su consentimiento?
Un tuit que se volvió viral lo decía todo: “Es hora de dejar de usar @WeTransfer quien desde el 8 de agosto ha decidido que será dueño de todo lo que transfieras para alimentar IA”. Este tipo de reacciones reflejan un sentimiento generalizado en la comunidad creativa, que teme que su trabajo sea utilizado de manera inapropiada.
La respuesta de WeTransfer
Consciente del descontento que se estaba generando, WeTransfer tomó cartas en el asunto rápidamente. La empresa revisó la sección problemática de su política y publicó un blog aclarando la confusión. En este comunicado, WeTransfer subrayó que los usuarios mantienen la propiedad y el control sobre su contenido. “Desde su feedback, entendimos que podría haber sido poco claro que ustedes retienen la propiedad y el control de su contenido. Hemos actualizado los términos para hacerlos más comprensibles”, se leía en su blog.
Además, decidieron eliminar toda mención a la inteligencia artificial, asegurando que no utilizarán el contenido de los clientes para este propósito. Aunque siguen otorgando una licencia estándar para el funcionamiento y mejora de la plataforma, el nuevo texto se enfoca en operar el servicio sin generar dudas sobre la privacidad de los datos de los usuarios.
Un problema recurrente en la industria
Lo curioso es que este episodio no es un caso aislado. Un incidente similar ocurrió hace aproximadamente un año y medio con Dropbox, cuando un cambio en su política de servicio insinuó que estaban recolectando contenido de los usuarios para entrenar modelos de IA. La reacción del público fue contundente y llevó a Dropbox a disculparse y corregir la confusión. Este patrón recurrente pone de manifiesto la creciente desconfianza hacia las empresas tecnológicas en cuanto a la protección de información personal.
La sensibilidad de los profesionales creativos hacia cualquier indicio de mal uso de datos es más que comprensible, especialmente en una era donde herramientas como DALL·E, Midjourney y ChatGPT utilizan el trabajo de artistas, escritores y músicos. Las demandas legales y los boicots de artistas por el uso no autorizado de sus creaciones resaltan la necesidad de que empresas como WeTransfer ofrezcan garantías sólidas sobre la privacidad de los datos. ¿Acaso no merecen los creadores el mismo respeto y protección que su trabajo? Es un tema que aún está muy presente en el debate actual.