La noticia de que Peter Steinberger, creador del asistente conocido hoy como OpenClaw, se ha unido a OpenAI llegó acompañada de promesas y advertencias. En un anuncio público se explicó que, a partir de esa decisión, Steinberger colaborará para impulsar la próxima generación de agentes personales. Paralelamente, el ecosistema que rodea al proyecto —incluida la red social para bots Moltbook y el mercado de extensiones del propio OpenClaw— ha puesto en evidencia tanto el potencial funcional de estos agentes como sus puntos ciegos en materia de seguridad y conducta.
El movimiento fue presentado públicamente el 15 de febrero de 2026, cuando se reveló que OpenClaw pasará a vivir como proyecto de código abierto mantenido por una fundación apoyada por OpenAI. Esta transición abre la puerta a mayor colaboración técnica, pero también obliga a afrontar riesgos asociados: desde prompt injection hasta plugins denominados skills con carga maliciosa. La reacción de la comunidad y de empresas de ciberseguridad ha sido inmediata.
Cómo llegó OpenClaw a ser un protagonista
OpenClaw nació como una interfaz que conecta modelos de lenguaje avanzados con aplicaciones cotidianas —correo, calendarios, navegadores— para que un agente ejecute tareas por cuenta del usuario. Antes fue conocido como Clawdbot y luego Moltbot; el cambio de nombre reflejó tanto cuestiones legales como decisiones de marca. Sus capacidades para reservar vuelos, organizar agendas y,
Moltbook: el experimento social que encendió la discusión
Una de las manifestaciones más llamativas del fenómeno fue Moltbook, una red social para instancias de agentes que imitaba el formato de foros comunitarios. Allí convergieron millones de cuentas creadas para bots: según cifras compartidas por los responsables de la plataforma, superaron 1,7 millones de agentes, con más de 250.000 publicaciones y 8,5 millones de comentarios. Estas métricas sirvieron para exponer comportamientos sorprendentes, desde publicaciones que simulaban religiones hasta oleadas de spam y estafas, demostrando que la escala amplifica tanto la creatividad como el riesgo.
Interpretaciones: ¿teatro o preludio de algo mayor?
Expertos han ofrecido lecturas contrapuestas. Algunos compararon la agitación en Moltbook con una escena de ciencia ficción, donde agentes intercambian ideas y coordinan acciones. Otros, más cautelosos, señalaron que la mayor parte de la actividad es imitación: efectos generados por modelos que replican patrones sociales sin objetivos propios. En muchos casos, la participación humana sigue siendo clave, desde la configuración inicial hasta el diseño de prompts y comportamientos, lo que reduce la narrativa de «sociedad autónoma» a una puesta en escena con marionetas detrás del telón.
Riesgos técnicos y respuestas de seguridad
Ante la proliferación de skills —complementos que amplían las funciones de OpenClaw— surgió la necesidad de controlar la calidad y evitar instrucciones que pudieran robar datos o tomar control de agentes ajenos. En respuesta, OpenClaw estableció una colaboración con la firma de análisis de código VirusTotal para escanear y clasificar esos complementos mediante su sistema de threat intelligence. El resultado inmediato fue la identificación de cientos de skills maliciosos; fuentes del proyecto reportaron la detección de aproximadamente 1.700 extensiones peligrosas que fueron bloqueadas del repositorio oficial.
Limitaciones de las defensas
A pesar del avance, los responsables advierten que el escaneo no elimina por completo la amenaza: técnicas sofisticadas de prompt injection pueden burlar controles y activar comportamientos no deseados. Por eso, la hoja de ruta de OpenClaw incluye auditorías continuas, procesos de revisión abierta y mecanismos de monitoreo permanente. Además, figuras del sector han subrayado la importancia de diseñar permisos y arquitecturas de memoria que impidan que instrucciones encontradas en foros o comentarios activen acciones dañinas en momentos posteriores.
La convergencia de la incorporación de Steinberger a OpenAI, la viralidad de Moltbook y la intervención de actores de seguridad traza una línea clara: la tecnología de agentes avanzados tiene un gran potencial para automatizar tareas cotidianas, pero su despliegue masivo requiere normas, vigilancia y diseño seguro. Mientras OpenClaw se reubica dentro de una fundación de código abierto y la comunidad acelera la revisión de skills, el debate entre innovación y cautela permanece en primer plano.


