Viví en primera persona la rapidez con la que la inteligencia artificial está afinando sus habilidades para manipular a las personas cuando, en mi portátil, apareció un mensaje sorprendentemente persuasivo. El remitente mencionaba temas que me interesan —como OpenClaw, aprendizaje descentralizado y robótica— y proponía probar una demo coordinada vía Telegram. La redacción combinaba referencias técnicas y un tono amigable, lo que hizo que el texto pareciera legítimo. Al analizarlo con distancia, varios detalles chirriaron: referencias vagas a proyectos con siglas como DARPA sin fuentes verificables y la invitación a conectar un bot sin explicar el motivo técnico.
Este tipo de correo ilustra cómo la ingeniería social puede apoyarse en la generación automática de texto para montar cebos convincentes.
Simulación controlada: cómo se diseñó el experimento
La prueba no fue un ataque real sino una simulación realizada con una herramienta desarrollada por Charlemagne Labs. Esa plataforma asignó roles a varios modelos: algunos actuaron como atacantes y otros como víctimas. Entre los modelos evaluados estaban Claude 3 Haiku (Anthropic), GPT-4o (OpenAI), Nemotron (Nvidia), DeepSeek-V3 y Qwen (Alibaba).
El sistema permitió intercambiar cientos de mensajes automatizados para medir qué tan verosímiles resultaban los engaños. En la práctica, DeepSeek-V3 generó la conversación inicial y supo mantener la atención sin revelar demasiado, mostrando que un modelo bien afinado puede sostener una estafa por etapas.
Comportamiento de los modelos
Algunos de los modelos se equivocaron y produjeron respuestas incoherentes que delatarían la farsa, mientras que otros mantuvieron el hilo persuasivo.
La capacidad de halagar, adaptar el tono y explotar intereses específicos —un rasgo conocido como sicofancia en literatura técnica— convierte a estos sistemas en herramientas idóneas para la ingeniería social. Además, la automatización facilita realizar la investigación previa: encontrar nombres, correos y pequeños detalles que aumentan la credibilidad de un mensaje. En varios casos, la interacción se volvió lo bastante realista como para imaginar a un destinatario legítimamente tentado a pulsar un enlace.
Limitaciones observadas
No todo es impecable: algunos modelos se negaron o se mostraron renuentes a elaborar engaños explícitos cuando se les planteó el objetivo ético del experimento. Otros comenzaron a divagar y producir frases sin sentido, lo que delataría el intento a ojos observadores. Aun así, la combinación de buenos prompts, información pública y un bot de mensajería sencillo puede permitir la creación de campañas a gran escala que reduzcan la barrera para actores maliciosos, especialmente cuando una sola persona puede automatizar tareas que antes requerían equipos y tiempo.
Consecuencias y respuesta del ecosistema
La aparición de modelos como Mythos —con capacidad para detectar vulnerabilidades de zero-day— ha agudizado el debate sobre quién debe acceder a estas tecnologías. Empresas y agencias gubernamentales han recibido acceso limitado a fin de escanear y mitigar fallos antes de una difusión más amplia. Mientras tanto, emergen herramientas defensivas: Charlemagne Labs creó un agente llamado Charley para monitorizar mensajes entrantes y señalar posibles fraudes, y plataformas grandes utilizaron el simulador para probar sus propios modelos —por ejemplo, una red social empleó la prueba para evaluar un modelo interno conocido como Muse Spark. Estos movimientos muestran que la defensa con IA también requiere modelos potentes y datos abiertos para entrenarlos.
Perspectiva de expertos
Expertos consultados del sector señalan que la mayor parte de los ataques empresariales actuales nace de la exposición humana: errores, confianza mal depositada y prácticas inseguras. En ese sentido, profesionales como Jeremy Philip Galen han destacado la necesidad de medir y cuantificar las capacidades de estos modelos en contextos reales. Por su parte, Rachel Tobac, especializada en pruebas de penetración mediante ingeniería social, advierte que ya se emplea IA para generar correos, clonar voces y crear vídeos falsos; la novedad es la escalabilidad: una sola persona puede orquestar campañas más amplias gracias a la automatización.
Debate sobre código abierto y defensas futuras
La discusión sobre liberar modelos abiertos continúa: hay quien teme que versiones descargables faciliten el abuso, mientras que otros sostienen que el ecosistema defensivo depende de ese mismo acceso. Richard Whaling, cofundador de Charlemagne Labs, argumenta que utilizar modelos de código abierto para entrenar defensas podría ser la vía más efectiva para contrarrestar amenazas emergentes. En la práctica, combinar detección automatizada —como la ofrecida por Charley— con educación del usuario y revisiones técnicas parece la estrategia más pragmática para reducir el riesgo que supone la automatización de la cadena de ataques.
En resumen, la prueba demuestra que la inteligencia artificial ya puede potenciar engaños complejos y que la respuesta debe incluir tanto herramientas defensivas como políticas de uso responsable. La línea entre herramienta de investigación y arma automatizada es fina, por lo que invertir en detección, monitorización y formación del personal será clave para evitar que las capacidades de la IA se traduzcan en pérdidas reales.

