La compañía estadounidense Anthropic hizo pública una acusación sobre operaciones sistemáticas que habrían usado técnicas de distillation para replicar capacidades de su modelo Claude. Según el comunicado, estas campañas implicaron millones de interacciones y decenas de miles de cuentas fraudulentas, y representan, en su opinión, un intento de apropiación de propiedad intelectual a escala industrial.
El 24 de febrero Anthropic señaló públicamente a tres laboratorios —DeepSeek, Moonshot y MiniMax— como protagonistas de estas operaciones.
La compañía describió la actividad como un riesgo que va más allá de un conflicto empresarial, subrayando posibles implicaciones para la seguridad y la integridad de las salvaguardas de sus modelos.
Qué es la técnica y cómo se utilizó
La distillation es un método conocido en el desarrollo de modelos que consiste en aprovechar las salidas de un sistema potente para entrenar o mejorar otro más ligero.
Anthropic explica que, aunque esta práctica puede ser legítima cuando se usa internamente, también puede convertirse en una vía para transferir capacidades sin desarrollo propio cuando se realiza de forma fraudulenta.
Método operativo: cuentas y proxys
Para llevar a cabo las campañas, los laboratorios señalados habrían generado alrededor de 24.000 cuentas falsas y efectuado más de 16 millones de intercambios con Claude. Anthropic afirma que MiniMax fue responsable de la mayor parte del volumen, con más de 13 millones de interacciones.
Para burlar las restricciones regionales y las prohibiciones de acceso comercial desde China, se habrían utilizado servicios proxy y redes de cuentas que ocultaban la procedencia real del tráfico.
Áreas objetivo y consecuencias técnicas
Los intercambios se concentraron especialmente en capacidades donde Claude destaca: programación, razonamiento agente y uso de herramientas. Anthropic advierte que modelos formados mediante este tipo de extracción suelen carecer de los mismos mecanismos de seguridad y guardarraíl incorporados por los desarrolladores originales, lo que aumenta el riesgo de uso indebido en ámbitos sensibles, desde ciberataques hasta la generación de instrucciones relacionadas con biotecnología.
Implicaciones para controles de exportación y seguridad
La empresa argumenta que estas prácticas permiten eludir controles de exportación destinados a limitar la difusión de tecnología de vanguardia, al replicar capacidades sin necesidad de transferir hardware o modelos completos. Esa reproducción a bajo coste puede alterar la competencia global y complicar los esfuerzos regulatorios para mantener estándares de seguridad en modelos avanzados.
Reacción del sector y pasos propuestos
Anthropic no fue la única en alertar sobre este tipo de tácticas: semanas antes, otros actores del sector también habían expresado preocupaciones similares. La compañía reclama una respuesta colectiva que combine acciones técnicas, legales y políticas: crear criterios compartidos para detectar distillation ilícita, reforzar la cooperación entre empresas y coordinar con reguladores para definir remedios efectivos.
Entre las medidas sugeridas figuran el intercambio de indicadores de fraude, el bloqueo coordinado de redes de cuentas falsas y el diseño de defensas que limiten la capacidad de extraer patrones sensibles mediante consultas repetitivas. Anthropic subraya que ningún actor individual dispone de recursos ni autoridad para frenar por completo este fenómeno.
Un debate más amplio sobre derechos y prácticas
La denuncia vuelve a poner sobre la mesa tensiones preexistentes en la industria de la inteligencia artificial: por un lado, la necesidad de proteger inversiones y propiedad intelectual; por otro, la práctica habitual de entrenar modelos con grandes volúmenes de datos y salidas generadas por otros sistemas. Anthropic pide que la discusión se traslade a foros internacionales para acordar normas que reconcilien innovación y seguridad.
La compañía insiste en que la ventana para actuar es reducida y que la comunidad tecnológica debe moverse con rapidez para mitigar riesgos potenciales.

