El logotipo de Anthropic exhibido en el escenario durante la Builder Summit de la compañía en Bengaluru, India, el lunes 16 de febrero de 2026. Fotógrafo: Samyukta Lakshmi/Bloomberg vía Getty Photos
Bloomberg | Bloomberg | Imágenes falsas
Anthropic acusó el lunes a tres empresas chinas de inteligencia synthetic de campañas coordinadas para extraer información de su modelo, lo que la convierte en la última empresa de tecnología estadounidense en hacer tales afirmaciones después de que OpenAI emitiera quejas similares.
Según un declaración de Anthropic, DeepSeek, Moonshot AI y minimax (las tres empresas en cuestión) participaron en campañas concertadas de “ataque de destilación”, inundando a Claude con grandes volúmenes de indicaciones especialmente diseñadas para entrenar modelos patentados.
A través de la destilación, los modelos de IA más pequeños pueden imitar el rendimiento de modelos más grandes previamente entrenados extrayendo conocimiento del modelo mejor entrenado, una técnica particularmente útil para equipos más pequeños con menos recursos.
A pesar de las restricciones de servicio de Anthropic que impiden el acceso comercial a Claude en China, las tres empresas supuestamente contrataron servicios de proxy comerciales para eludir las restricciones de Anthropic, permitiendo el acceso a redes que ejecutan decenas de miles de cuentas de Claude simultáneamente.
“Una vez que se asegura el acceso, los laboratorios generan grandes volúmenes de indicaciones cuidadosamente diseñadas para extraer capacidades específicas del modelo”, dijo Anthropic en el comunicado.
Las respuestas de Claude a estas indicaciones se cultivan en masa ya sea para el entrenamiento directo de los modelos chinos o para un proceso conocido como aprendizaje por refuerzo, un enfoque intensivo en datos en el que los modelos de IA aprenden a tomar decisiones mediante prueba y error en ausencia de guía humana..
Anthropic estimó que las tres empresas chinas generaron colectivamente más de 16 millones de intercambios con Claude a partir de alrededor de 24.000 cuentas creadas de manera fraudulenta. De las tres empresas, Anthropic descubrió que MiniMax generaba la mayor cantidad de tráfico, con más de 13 millones de intercambios.
DeepSeek, Moonshot AI y MiniMax aún no han respondido a una solicitud de comentarios de CNBC.
No es la primera vez
Anthropic se une a un coro cada vez mayor de empresas estadounidenses que expresan su preocupación por la destilación de empresas chinas de IA.
A principios de este mes, OpenAI de Sam Altman presentó una solicitud abierta carta a los legisladores estadounidenses, afirmando haber observado actividad “indicativa de los intentos en curso de DeepSeek de destilar modelos fronterizos de OpenAI y otros laboratorios fronterizos de EE. UU., incluso a través de métodos nuevos y confusos”.
La compañía ha señalado evidencia de destilación por parte de empresas chinas desde principios del año pasado, con el lanzamiento del primer modelo DeepSeek de China, que los usuarios encontraron sorprendentemente related a ChatGPT, según el Monetary Instances. reportado en enero de 2025, citando a expertos de OpenAI.
La destilación, sin embargo, no es infrecuente en la industria, como reconoció Anthropic en su declaración del lunes que las empresas de IA “rutinariamente destilan sus propios modelos para crear versiones más pequeñas y más baratas”.
Las acusaciones de Anthropic probablemente se refieren menos a malas prácticas de la industria que a violaciones de sus términos de servicio, dijo Lia Raquel Neves, fundadora de la consultora de ética EITIC.
“Si la propia Anthropic reconoce que la destilación es una práctica legítima y ampliamente utilizada… entonces el punto central de la controversia reside no sólo en la técnica en sí, sino en el supuesto acceso fraudulento y la posible violación de los términos contractuales y las restricciones de acceso”, añadió Neves.
La compañía, sin embargo, expresó su preocupación por la ventaja competitiva que obtendrían las empresas rivales, ya que la práctica puede usarse “para adquirir potentes capacidades de otros laboratorios en una fracción del tiempo, y a una fracción del costo, que se necesitaría para desarrollarlas de forma independiente”.
En sus respectivas declaraciones, Anthropic y OpenAI han enmarcado la destilación por parte de estas empresas chinas como amenazas a la seguridad nacional.
Al igual que OpenAI, que describió las prácticas de DeepSeek como “destilación adversaria”, Anthropic expresó su preocupación por la posibilidad de que “gobiernos autoritarios desplieguen[ing] IA de frontera para operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva”.
Una guerra de narrativas
Sin embargo, según los expertos, aún no está claro hasta qué punto estas declaraciones reflejan preocupaciones genuinas de seguridad por el deseo de preservar el liderazgo competitivo de las corporaciones de inteligencia synthetic de Estados Unidos.
Dada la aceptación normal de la destilación como una práctica legítima en la industria de la IA, “el límite entre el uso legítimo y la explotación adversa es a menudo borroso”, dijo a CNBC Erik Cambria, profesor de inteligencia synthetic de la Universidad Tecnológica de Nanyang de Singapur.
Algunos usuarios en línea se apresuraron a indicar las similitudes entre las afirmaciones de Anthropic y su propio uso de la destilación para entrenar modelos patentados.
Anthropic ha enmarcado durante mucho tiempo el “liderazgo informático como una prioridad de seguridad nacional”, consistentemente defendiendo para controles de exportación más estrictos de chips de IA avanzados a China, según Rui Ma de la consultora boutique Tech Buzz China.
“Ya sea intencional o no, la narrativa de la transferencia ilícita de capacidades fortalece los argumentos a favor de restricciones más estrictas sobre los chips”, añadió Ma.
A medida que el debate sobre la seguridad nacional y los controles de las exportaciones se desarrolla en medio de un contexto más amplio de competencia world e inversiones financieras sustanciales en IA, es importante separar los riesgos de seguridad reales de las narrativas estratégicas más amplias”, dijo Neves de EITIC.
“Esto no invalida la existencia de una verdadera [security] riesgos, pero sí requiere prudencia analítica para distinguir entre… [different] narrativas”, dijo.
El mismo día de la declaración de Anthropic, Reuters reportado que Estados Unidos había encontrado pruebas de que DeepSeek había entrenado su modelo de IA en el chip Blackwell, el buque insignia de Nvidia, aparentemente violando los controles de exportación, según altos funcionarios anónimos.
Estos informes alimentan las preocupaciones de una administración que parece cada vez más ansiosa por los rápidos avances de China en la industria de la IA, especialmente porque, según se informa, los avances de China se derivan del uso de sistemas desarrollados en Estados Unidos.
El viernes pasado, la Casa Blanca anunció el establecimiento del Cuerpo de Paz, una iniciativa dentro del Cuerpo de Paz destinada a promover los intereses estadounidenses de IA en el extranjero y ayudar a los países socios a adoptar sistemas de vanguardia.






