**Anthropic denuncia a laboratorios chinos por intento de apropiación de capacidades de Claude**
El pasado lunes, la empresa estadounidense de inteligencia artificial Anthropic acusó a tres laboratorios chinos de inteligencia artificial de intentar apropiarse furtivamente de las capacidades de su modelo Claude para integrarlas en sus propios sistemas. Esta actividad podría tener implicaciones graves, ya que podría alimentar operaciones cibernéticas ofensivas, lo que plantea serias preocupaciones sobre la seguridad nacional.
Los laboratorios en cuestión son DeepSeek, Moonshot y MiniMax, los cuales, según Anthropic, llevaron a cabo “campañas a escala industrial” utilizando una táctica conocida como "destilación". Este método implica enviar solicitudes masivas al modelo Claude con el objetivo de mejorar el rendimiento de sus propios modelos, alcanzando un total de 16 millones de peticiones. Aunque la destilación puede ser un método de entrenamiento legítimo, Anthropic subraya que su uso como atajo para sustraer capacidades de competidores es inaceptable.
La empresa argumenta que los modelos destilados de manera ilícita carecen de las salvaguardias necesarias, lo que genera riesgos significativos para la seguridad nacional. “Los laboratorios extranjeros que destilan modelos estadounidenses pueden introducir estas capacidades desprotegidas en sistemas militares, de inteligencia y de vigilancia, permitiendo a gobiernos autoritarios desplegar inteligencia artificial avanzada para operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva”, advirtió Anthropic.
Este no es el primer aviso que lanza Anthropic sobre las amenazas chinas derivadas del uso de Claude. En este contexto, la empresa también ha renovado su llamado a la implementación de controles de exportación más estrictos para proteger sus tecnologías.
Por su parte, OpenAI también ha acusado a DeepSeek de utilizar técnicas de destilación. Hasta el momento, CyberScoop no ha podido contactar a los tres laboratorios chinos para obtener comentarios sobre las afirmaciones de Anthropic.
Anthropic detalló que las tres campañas de destilación seguían un enfoque similar, empleando cuentas fraudulentas y servicios proxy para acceder a Claude de manera masiva, eludiendo así la detección. “El volumen, la estructura y el enfoque de las solicitudes eran distintos de los patrones de uso normales, lo que refleja una extracción deliberada de capacidades en lugar de un uso legítimo”, señalaron.
En total, los laboratorios utilizaron 24,000 cuentas fraudulentas, siendo DeepSeek responsable de 150,000 intercambios, mientras que Moonshot realizó 3.4 millones de peticiones y MiniMax 13 millones, según la información proporcionada por la startup. Esta actividad no solo violó los términos de servicio, sino también las restricciones de acceso regional.
La legitimidad de esta táctica se pone en entredicho, ya que esencialmente roba la propiedad intelectual, la capacidad de computación y el esfuerzo de Anthropic, indicó Gal Elbaz, cofundador y director de tecnología de Oligo Security, una empresa que se presenta como especializada en la seguridad en la ejecución de inteligencia artificial. “Lo inquietante es que puedes aprovechar todo ese poder y desatarlo, porque no hay nadie que realmente haga cumplir esas restricciones en el otro lado”, comentó Elbaz a CyberScoop, refiriéndose a los temores que ha suscitado Anthropic sobre la posibilidad de que estos laboratorios alimenten ciberataques.
Además, es importante señalar que las propias empresas de inteligencia artificial se han enfrentado a acusaciones de estar robando datos y propiedad intelectual de terceros para potenciar sus modelos. Esta dinámica genera un entorno competitivo tenso en el que la ética y la legalidad de las prácticas en la industria de la inteligencia artificial están bajo un continuo escrutinio.
En resumen, la denuncia de Anthropic no solo resalta la vulnerabilidad de los modelos de inteligencia artificial ante tácticas de extracción de capacidades, sino que también plantea preguntas críticas sobre la seguridad y la regulación en el ámbito de la inteligencia artificial en un mundo cada vez más interconectado. Las repercusiones de estas acciones no solo afectan a las empresas implicadas, sino que también tienen el potencial de impactar la seguridad global y la integridad de la tecnología utilizada en contextos sensibles.