El 7 de abril de 2026 Anthropic presentó públicamente Claude Mythos Preview y, al mismo tiempo, anunció Project Glasswing, una iniciativa diseñada para que esa potencia de inteligencia artificial opere exclusivamente con fines defensivos. La decisión de restringir el uso general responde a que el modelo demuestra capacidades para identificar y encadenar vulnerabilidades de forma autónoma, lo que plantea un problema de doble uso. En pruebas internas y con clientes de acceso anticipado, Mythos encontró miles de fallos zero-day, lo que llevó a Anthropic a evitar un despliegue público sin antes establecer mecanismos de gobernanza y colaboración sectorial.
Qué es Project Glasswing y cómo funciona
Project Glasswing es un consorcio que agrupa a grandes actores tecnológicos y financieros para aplicar IA en el fortalecimiento de software crítico. La iniciativa combina acceso controlado al modelo, recursos económicos y protocolos de divulgación responsable: los hallazgos se comunican primero a los propietarios de los sistemas afectados antes de cualquier difusión pública. La lógica es simple pero ambiciosa: convertir la misma automatización que puede facilitar ataques en una herramienta escalable para defender infraestructuras clave.
El proyecto también busca desarrollar estándares de ciclo de vida seguro del software adaptados a la era de los modelos avanzados.
Claude Mythos Preview: potencia, benchmarks y hallazgos
Claude Mythos Preview se situó como un salto generacional en rendimiento en múltiples pruebas. Entre los resultados más notables se reportaron 93.9% en SWE-bench Verified, 77.8% en SWE-bench Pro, 82% en Terminal-Bench 2.0 y 97.6% en USAMO 2026, cifras que superan por márgenes de doble dígito a modelos anteriores como Opus 4.6 y GPT-5.4.
En el terreno de la ciberseguridad, Mythos descubrió miles de zero-day en sistemas y navegadores principales e incluso un fallo en OpenBSD que había persistido durante 27 años. Estas capacidades convierten al modelo en un recurso invaluable para detección automática a gran escala, pero también justifican la cautela en su distribución.
Riesgos de doble uso y antecedentes
La urgencia de la medida quedó más clara tras informes de actividad real que mostraron cómo actores maliciosos empleaban modelos de IA para automatizar intrusiones.
En las semanas previas al anuncio hubo filtraciones y reportes —incluyendo cobertura que se remonta al 26 de marzo de 2026— que evidenciaron que variantes de estos modelos se utilizaron para atacar cerca de 30 organizaciones en sectores tecnológico, financiero y gubernamental. Ese tipo de incidentes ilustra el concepto de doble uso: la misma lógica que facilita la búsqueda de fallos puede también producir exploits si cae en manos equivocadas.
Mecanismos de gobernanza y participantes
Para mitigar riesgos, Anthropic limitó el acceso inicial a un grupo de socios fundadores y a otras organizaciones responsables de infraestructuras críticas, ofreciendo hasta $100 million en créditos de uso para desplegar Mythos en tareas defensivas y $4 million en donaciones para proyectos de seguridad de código abierto. Entre los socios iniciales figuraron empresas como Amazon, Apple, Google, Microsoft, y Nvidia, además de actores del sector seguridad y finanzas. Estos acuerdos buscan no solo aplicar el modelo sino definir prácticas de transparencia, divulgación responsable y estándares compartidos.
Participantes clave y compromisos
El consorcio incluye proveedores de nube, vendors de seguridad y bancos que aportan perspectivas distintas sobre el riesgo y la protección. El objetivo conjunto es escalar el análisis automatizado de código y crear protocolos que las organizaciones puedan implementar incluso con equipos reducidos. La estrategia combina el uso de una API restringida, auditorías coordinadas y la elaboración de guías técnicas que reflejen lecciones aprendidas durante las pruebas.
Implicaciones para startups y equipos técnicos
Para quienes construyen productos hoy, Project Glasswing cambia el terreno de juego: la seguridad deja de ser un afterthought y se convierte en requisito de mercado y regulación. Herramientas basadas en modelos avanzados ya permiten auditar código, identificar dependencias vulnerables y simular vectores de ataque; integrarlas en el flujo de desarrollo será una ventaja competitiva. Además, las mejores prácticas que emerjan del consorcio tenderán a constituir el mínimo aceptable en auditorías y en exigencias regulatorias. Finalmente, la iniciativa subraya que la mejora en seguridad suele surgir de colaboración intersectorial y de compartir hallazgos de forma responsable.
Conclusión: usar la IA para frenar la IA
La apuesta de Anthropic con Claude Mythos Preview y Project Glasswing es un ejemplo claro de cómo la industria puede intentar contener riesgos a través de cooperación y gobernanza. Emplear modelos potentes bajo controles, créditos y transparencia busca transformar una amenaza potencial en la primera línea de defensa. Para equipos técnicos y founders, el mensaje es práctico: incorporar prácticas seguras desde el inicio, mantenerse al día con los estándares que surjan y participar en ecosistemas colaborativos será clave para navegar la próxima fase de la ciberseguridad impulsada por IA.

