En el panorama digital actual, donde casi la mitad de los australianos ha utilizado herramientas de inteligencia artificial (IA), es crucial comprender su uso y los riesgos que conlleva. Recientemente, un informe de la consultora Deloitte reveló errores generados por IA, lo que llevó a la empresa a reembolsar parcialmente al gobierno australiano. Además, un abogado enfrentó acciones disciplinarias tras descubrirse que había utilizado citas falsas generadas por IA en un documento judicial.
Este tipo de incidentes ha suscitado preocupación en universidades sobre el uso de la IA por parte de los estudiantes.
Frente a estas inquietudes, han surgido diversas herramientas de detección de IA que buscan ayudar a las personas a identificar contenido confiable y verificado. Sin embargo, surge la pregunta: ¿cómo funcionan realmente estas herramientas y qué tan efectivas son para identificar material generado por IA?
Métodos de detección de contenido generado por IA
Existen distintas estrategias para detectar contenido creado por IA, cada una con características y limitaciones específicas. Las herramientas que analizan texto suelen buscar patrones en la estructura de las oraciones, el estilo de escritura y la previsibilidad de ciertas palabras o frases. Por ejemplo, términos como “profundiza” y “mostrando” han aumentado significativamente en uso desde la popularización de las herramientas de escritura de IA.
Limitaciones de los enfoques basados en patrones
No obstante, la brecha entre los patrones de escritura de la IA y los de los humanos se está reduciendo. Esto implica que las herramientas que dependen de estos patrones característicos pueden resultar poco fiables. En el caso de los detectores de imágenes, se analiza con frecuencia los metadatos incrustados que ciertas herramientas de IA añaden a los archivos de imagen. Por ejemplo, la herramienta Content Credentials permite a los usuarios verificar la edición de un contenido, siempre que haya sido creado con software compatible.
Al igual que con el texto, las imágenes pueden compararse con bases de datos verificadas de contenido generado por IA, como los deepfakes. Además, algunos desarrolladores de IA han comenzado a incorporar marcas de agua en sus salidas. Estas son patrones ocultos que son imperceptibles para los humanos, pero que pueden ser detectados por el desarrollador de la IA. Sin embargo, hasta ahora, ninguna de las grandes empresas ha hecho públicas sus herramientas de detección.
Desafíos en la efectividad de las herramientas de detección
La eficacia de los detectores de IA está condicionada por varios factores, como las herramientas utilizadas para crear el contenido y si este ha sido modificado tras su generación. Los conjuntos de datos de entrenamiento también juegan un papel crucial en los resultados. Por ejemplo, algunos conjuntos utilizados para detectar imágenes generadas por IA carecen de suficientes imágenes de cuerpo completo o de personas de ciertas culturas, limitando así la efectividad de la detección en varios aspectos.
Interoperabilidad y edición de contenido
Las herramientas de detección basadas en marcas de agua pueden ser efectivas cuando se trata de contenido creado por IA de una misma compañía. Por ejemplo, la herramienta SynthID de Google afirma poder detectar salidas generadas por su modelo de IA Imagen. Sin embargo, esta herramienta no está disponible públicamente y no puede detectar contenido creado con otros modelos, como ChatGPT. Esto resalta la falta de interoperabilidad entre los desarrolladores de IA.
Otro desafío es que los detectores pueden ser engañados si el contenido ha sido editado. Por ejemplo, si se utiliza una aplicación de clonación de voz y luego se añade ruido o se reduce la calidad del audio, esto puede confundir a los detectores de voz de IA. Lo mismo se aplica a los detectores de imágenes, que pueden fallar ante modificaciones.
La necesidad de confianza en la detección de IA
Un problema significativo con muchas herramientas de detección es la falta de explicabilidad. Aunque algunos detectores ofrecen una estimación de confianza sobre la probabilidad de que un contenido sea generado por IA, por lo general no explican el razonamiento detrás de sus conclusiones. Esto puede llevar a errores, como clasificar incorrectamente un ensayo escrito por un estudiante como generado por IA, o viceversa.
Es crucial entender que aún estamos en las primeras etapas de la detección de IA, especialmente en la detección automática. Un ejemplo reciente es el desafío de detección de deepfakes de Meta, donde el modelo ganador logró identificar cuatro de cinco deepfakes, pero fue entrenado con los mismos datos que se probaron, lo que limita su aplicabilidad a nuevos contenidos.
Frente a estas inquietudes, han surgido diversas herramientas de detección de IA que buscan ayudar a las personas a identificar contenido confiable y verificado. Sin embargo, surge la pregunta: ¿cómo funcionan realmente estas herramientas y qué tan efectivas son para identificar material generado por IA?0


