En el contexto actual, donde el cibercrimen se encuentra en aumento y las tecnologías de inteligencia artificial son cada vez más accesibles, la necesidad de herramientas que protejan a los usuarios se vuelve crítica. La colaboración entre la Australian Federal Police (AFP) y la Universidad de Monash ha dado lugar al desarrollo de un innovador sistema conocido como Silverer, destinado a combatir el contenido digital malicioso.
Una estrategia de protección digital
Silverer se basa en la técnica conocida como data poisoning, que consiste en realizar modificaciones sutiles en conjuntos de datos. Este enfoque busca dificultar la creación de imágenes y videos manipulados mediante inteligencia artificial. A medida que los criminales utilizan herramientas de IA para generar contenido perjudicial, Silverer se propone interrumpir este proceso al envenenar los datos que se utilizan para entrenar a estos modelos.
Cómo funciona Silverer
El funcionamiento de Silverer es ingenioso. Al alterar los datos de manera que cualquier modelo de inteligencia artificial que intente procesarlos produzca resultados erróneos o inservibles, se dificulta la generación de contenido dañino. La investigadora y candidata a doctorado de AiLECS, Elizabeth Perry, destaca que el nombre Silverer simboliza el papel de un respaldo de plata en un espejo, que distorsiona la imagen real cuando se observa a través de él. “Al aplicar Silverer, el usuario puede modificar sus imágenes antes de subirlas a las redes sociales, convirtiéndolas en un reflejo inútil para los algoritmos de IA”, explica Perry.
Un crecimiento alarmante de contenido perjudicial
La AFP ha reportado un incremento notable en la creación de contenido relacionado con abuso infantil generado por inteligencia artificial. La facilidad con la que los delincuentes pueden acceder a herramientas de IA de código abierto ha hecho que la creación y distribución de este material se haya vuelto alarmantemente sencilla. El comandante Rob Nelson de la AFP subraya que el uso de tecnologías como Silverer es vital para mitigar estos riesgos. “Estamos introduciendo obstáculos que dificultan el uso malicioso de estas herramientas”, menciona Nelson.
El impacto de los deepfakes en la sociedad
Además del riesgo de abuso infantil, los deepfakes han generado un sinfín de problemas en el ámbito de la desinformación y el fraude. Según el profesor asociado Campbell Wilson, co-director de AiLECS, el auge de las herramientas de IA ha permitido a los delincuentes crear deepfakes hiperrealistas, lo que ha contribuido a estafas que han costado millones a los australianos. “La capacidad de generar contenido falso con facilidad ha cambiado las reglas del juego en el ámbito del cibercrimen”, indica Wilson.
Hacia una solución accesible para todos
El objetivo final del desarrollo de Silverer es ofrecer a los ciudadanos australianos una herramienta accesible y fácil de usar para proteger sus datos en línea. Si los usuarios pueden envenenar sus imágenes antes de publicarlas, se vuelve mucho más complicado para los delincuentes generar deepfakes que los involucren. “Una dosis de data poison puede ser una medida efectiva para salvaguardar tu identidad digital”, concluye el comandante Nelson.
En este sentido, Silverer se encuentra actualmente en fase de prototipo y está siendo evaluado para su posible implementación interna en la AFP. Con el apoyo del Gobierno Federal, el laboratorio AiLECS sigue investigando tecnologías de inteligencia artificial que promuevan la seguridad y el bienestar comunitario.

