🛡 VULNERABILIDADES 🛡

Anthropic acusa a laboratorios chinos de intentar apropiarse ilícitamente de las capacidades de Claude.

🛡CyberObservatorio
Idioma

Anthropic acusa a laboratorios chinos de intentar apropiarse ilícitamente de las capacidades de Claude.

Fuente: CyberScoop

**Anthropic denuncia a laboratorios chinos por intento de apropiación de capacidades de Claude**

El pasado lunes, la empresa estadounidense de inteligencia artificial Anthropic acusó a tres laboratorios chinos de inteligencia artificial de intentar apropiarse furtivamente de las capacidades de su modelo Claude para integrarlas en sus propios sistemas. Esta actividad podría tener implicaciones graves, ya que podría alimentar operaciones cibernéticas ofensivas, lo que plantea serias preocupaciones sobre la seguridad nacional.

Los laboratorios en cuestión son DeepSeek, Moonshot y MiniMax, los cuales, según Anthropic, llevaron a cabo “campañas a escala industrial” utilizando una táctica conocida como "destilación". Este método implica enviar solicitudes masivas al modelo Claude con el objetivo de mejorar el rendimiento de sus propios modelos, alcanzando un total de 16 millones de peticiones. Aunque la destilación puede ser un método de entrenamiento legítimo, Anthropic subraya que su uso como atajo para sustraer capacidades de competidores es inaceptable.

La empresa argumenta que los modelos destilados de manera ilícita carecen de las salvaguardias necesarias, lo que genera riesgos significativos para la seguridad nacional. “Los laboratorios extranjeros que destilan modelos estadounidenses pueden introducir estas capacidades desprotegidas en sistemas militares, de inteligencia y de vigilancia, permitiendo a gobiernos autoritarios desplegar inteligencia artificial avanzada para operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva”, advirtió Anthropic.

Este no es el primer aviso que lanza Anthropic sobre las amenazas chinas derivadas del uso de Claude. En este contexto, la empresa también ha renovado su llamado a la implementación de controles de exportación más estrictos para proteger sus tecnologías.

Por su parte, OpenAI también ha acusado a DeepSeek de utilizar técnicas de destilación. Hasta el momento, CyberScoop no ha podido contactar a los tres laboratorios chinos para obtener comentarios sobre las afirmaciones de Anthropic.

Anthropic detalló que las tres campañas de destilación seguían un enfoque similar, empleando cuentas fraudulentas y servicios proxy para acceder a Claude de manera masiva, eludiendo así la detección. “El volumen, la estructura y el enfoque de las solicitudes eran distintos de los patrones de uso normales, lo que refleja una extracción deliberada de capacidades en lugar de un uso legítimo”, señalaron.

En total, los laboratorios utilizaron 24,000 cuentas fraudulentas, siendo DeepSeek responsable de 150,000 intercambios, mientras que Moonshot realizó 3.4 millones de peticiones y MiniMax 13 millones, según la información proporcionada por la startup. Esta actividad no solo violó los términos de servicio, sino también las restricciones de acceso regional.

La legitimidad de esta táctica se pone en entredicho, ya que esencialmente roba la propiedad intelectual, la capacidad de computación y el esfuerzo de Anthropic, indicó Gal Elbaz, cofundador y director de tecnología de Oligo Security, una empresa que se presenta como especializada en la seguridad en la ejecución de inteligencia artificial. “Lo inquietante es que puedes aprovechar todo ese poder y desatarlo, porque no hay nadie que realmente haga cumplir esas restricciones en el otro lado”, comentó Elbaz a CyberScoop, refiriéndose a los temores que ha suscitado Anthropic sobre la posibilidad de que estos laboratorios alimenten ciberataques.

Además, es importante señalar que las propias empresas de inteligencia artificial se han enfrentado a acusaciones de estar robando datos y propiedad intelectual de terceros para potenciar sus modelos. Esta dinámica genera un entorno competitivo tenso en el que la ética y la legalidad de las prácticas en la industria de la inteligencia artificial están bajo un continuo escrutinio.

En resumen, la denuncia de Anthropic no solo resalta la vulnerabilidad de los modelos de inteligencia artificial ante tácticas de extracción de capacidades, sino que también plantea preguntas críticas sobre la seguridad y la regulación en el ámbito de la inteligencia artificial en un mundo cada vez más interconectado. Las repercusiones de estas acciones no solo afectan a las empresas implicadas, sino que también tienen el potencial de impactar la seguridad global y la integridad de la tecnología utilizada en contextos sensibles.

Anthropic accuses Chinese labs of trying to illicitly take Claude’s capabilities

Source: CyberScoop

Anthropic on Monday accused three Chinese artificial intelligence laboratories of stealthily trying to siphon Claude’s capabilities for their own models, potentially in a way that could fuel offensive cyber operations. The U.S. AI startup said the three labs, DeepSeek, Moonshot and MiniMax, ran “industrial-scale campaigns” with a tactic known as “distillation.” It involves sending bulk requests to its Claude model in a bid to boost their own — in this case, 16 million in all. Distillation can be a legitimate training method practice, the company said ina blog post, but not when used as a shortcut to take capabilities from competitors. “Illicitly distilled models lack necessary safeguards, creating significant national security risks,” Anthropic argued. “Foreign labs that distill American models can then feed these unprotected capabilities into military, intelligence, and surveillance systems — enabling authoritarian governments to deploy frontier AI for offensive cyber operations, disinformation campaigns, and mass surveillance.” It’s not the first time Anthropic haswarned about Chinese threatsstemming from the nation’s use of Claude. And Anthropic paired its revelations about the distillation campaign withrepeating its callfor stronger export controls. OpenAI also hasaccused DeepSeekof using distillation techniques. CyberScoop could not immediately reach the three Chinese labs for comment on Anthropic’s claims. “The three distillation campaigns … followed a similar playbook, using fraudulent accounts and proxy services to access Claude at scale while evading detection,” Anthropic said. “The volume, structure, and focus of the prompts were distinct from normal usage patterns, reflecting deliberate capability extraction rather than legitimate use.” In all, the labs used 24,000 fraudulent accounts, Anthropic said. DeepSeek was responsible for 150,000 of the exchanges, compared to 3.4 million from Moonshot and 13 million from MiniMax, according to the startup. The activity violated terms of service and regional access restrictions, it said. What makes the tactic illegitimate is that it essentially steals Anthropic’s intellectual property, computing power and effort, said Gal Elbaz, co-founder and chief technology officer of Oligo Security, which bills itself as an AI runtime security company. “The scary part is, you can take all of the power and unleash it, because you don’t have anyone that actually enforces those guardrails on the other side,” Elbaz told CyberScoop about the fears Anthropic raised about the labs fueling cyberattacks. AI companies themselves have faced claims that they are stealing data and IP from others to power their models. The postAnthropic accuses Chinese labs of trying to illicitly take Claude’s capabilitiesappeared first onCyberScoop.

Anthropic acusa a laboratorios chinos de intentar apropiarse ilícitamente de las capacidades de Claude. | Ciberseguridad - NarcoObservatorio