Disputa por la propiedad intelectual en IA: Anthropic acusa a firmas chinas de extracción masiva de datos

Disputa por la propiedad intelectual en IA: Anthropic acusa a firmas chinas de extracción masiva de datos
Anthropic denuncia a tres empresas chinas por extracción masiva de datos de su chatbot Claude, abriendo un debate sobre control, regulación y seguridad en

Disputa por la propiedad intelectual en IA: Anthropic acusa a firmas chinas de extracción masiva de datos

Anthropic, empresa estadounidense de inteligencia artificial, ha denunciado que tres firmas chinas (DeepSeek, Moonshot AI y MiniMax) emplearon técnicas de ‘destilación’ para extraer capacidades de su chatbot Claude, en lo que califica como robo de propiedad intelectual a escala industrial. Según la compañía, estas campañas han crecido en intensidad y sofisticación, utilizando millones de interacciones y miles de cuentas falsas para eludir controles y restricciones de acceso. Más que el anuncio, lo relevante es el despliegue. La acusación sitúa el foco en la infraestructura de control sobre modelos avanzados de IA y en la capacidad de los actores estatales y privados para supervisar y proteger activos estratégicos. ¿Hasta qué punto la gobernanza internacional puede adaptarse a una industria donde la transferencia tecnológica desafía las fronteras regulatorias?


Anthropic, empresa estadounidense de inteligencia artificial, ha denunciado que tres firmas chinas (DeepSeek, Moonshot AI y MiniMax) emplearon técnicas de ‘destilación’ para extraer capacidades de su chatbot Claude, en lo que califica como robo de propiedad intelectual a escala industrial. Según la compañía, estas campañas han crecido en intensidad y sofisticación, utilizando millones de interacciones y miles de cuentas falsas para eludir controles y restricciones de acceso. Más que el anuncio, lo relevante es el despliegue. La acusación sitúa el foco en la infraestructura de control sobre modelos avanzados de IA y en la capacidad de los actores estatales y privados para supervisar y proteger activos estratégicos. ¿Hasta qué punto la gobernanza internacional puede adaptarse a una industria donde la transferencia tecnológica desafía las fronteras regulatorias?

Qué se anunció y cuál es el alcance real

Anthropic comunicó haber detectado campañas organizadas por tres empresas chinas para extraer capacidades de su modelo Claude mediante la técnica de destilación, que consiste en utilizar las respuestas de un sistema avanzado para mejorar modelos propios. La compañía afirma que se realizaron aproximadamente 16 millones de interacciones y se emplearon 24.000 cuentas falsas para sortear restricciones, incluyendo el uso de proxies para evitar el bloqueo de acceso comercial desde China. El alcance real incluye la transferencia de capacidades en áreas clave como codificación y razonamiento, pero la fuente no detalla si existen pruebas independientes ni si se han iniciado procedimientos legales o regulatorios formales. No se especifica la respuesta de las firmas acusadas ni la postura de autoridades regulatorias fuera de EE.UU.

Para qué sirve en la práctica

En la práctica, la destilación permite a empresas con menos recursos replicar o aproximar el rendimiento de modelos avanzados sin desarrollar internamente toda la tecnología. Según la fuente, los ejemplos concretos incluyen la mejora de modelos chinos en tareas de codificación, razonamiento automatizado y uso de herramientas, ámbitos donde Claude es considerado puntero. Esto facilita la creación de chatbots competitivos a menor coste y puede acelerar la aparición de alternativas locales en mercados restringidos por controles de exportación. No se mencionan otros usos directos fuera del desarrollo de modelos conversacionales y agentes de software.

Qué riesgos abre si se despliega mal

La fuente indica que la extracción masiva de capacidades mediante destilación puede eludir los controles de exportación y las salvaguardas de seguridad integradas en los modelos originales, como las barreras contra usos maliciosos (por ejemplo, desarrollo de armas biológicas o ciberataques). Anthropic advierte que los modelos derivados podrían carecer de estos mecanismos, aumentando el riesgo de uso indebido. Además, la incapacidad de una sola empresa para controlar este fenómeno señala una posible debilidad estructural en la gobernanza y supervisión internacional de la IA. No se especifica si existen mecanismos de auditoría independientes ni cómo se podría verificar la integridad de los modelos replicados.

Qué condiciones mínimas deberían exigirse

La fuente recoge la petición de Anthropic de una respuesta coordinada entre industria y gobiernos, pero no detalla propuestas concretas de regulación, auditoría o mecanismos de supervisión. No se especifican estándares mínimos de transparencia, trazabilidad de interacciones ni obligaciones de reporte para los actores implicados. Tampoco se menciona si existen foros multilaterales activos para abordar la transferencia tecnológica en IA ni si hay procedimientos para resolver disputas de propiedad intelectual en este ámbito. La ausencia de detalles sobre mecanismos de control y sanción deja abierta la cuestión de cuáles serían las condiciones mínimas para una gobernanza legítima.

Conclusión

Será una mejora institucional si se garantizan al menos mecanismos efectivos de supervisión internacional y estándares mínimos de seguridad en los modelos derivados. Puede no alcanzar los objetivos declarados si persisten lagunas en la trazabilidad y en la capacidad de respuesta coordinada entre actores públicos y privados. La evolución dependerá de la capacidad de los reguladores y de la industria para establecer marcos de gobernanza adaptados a la transferencia transfronteriza de capacidades de IA. Cuando la infraestructura se vuelve crítica, la cuestión central es quién conserva la capacidad de decisión sobre su uso y control efectivo.

Fuente: The Guardian — https://www.theguardian.com/technology/2026/feb/23/us-ai-anthropic-china


Nota editorial: Contenido generado y estructurado con apoyo de un editor de IA de PorqueIA.com.

Este contenido ha sido generado de manera automática a partir de información disponible públicamente en distintas fuentes de internet. porqueia.com no garantiza la exactitud o veracidad total de los datos presentados y no se hace responsable por errores, omisiones o interpretaciones derivadas de este contenido. Se recomienda contrastar la información con medios oficiales o especializados. La fuente original siempre será citada dentro del artículo