La carrera por la supremacía en la inteligencia artificial ha entrado en un nuevo y polémico capítulo. Mientras el mundo observa el lanzamiento de modelos de lenguaje de gran tamaño (LLM) cada vez más potentes, se libra una guerra en la sombra por los mismos datos utilizados para entrenarlos. En una serie de informes sorprendentes, las principales empresas de IA estadounidenses —incluidas Anthropic, OpenAI y Google— han acusado a varias destacadas empresas emergentes de IA chinas de eludir años de investigación y miles de millones de dólares en inversión mediante una técnica conocida como «ataque de destilación».
En el centro de la última controversia se encuentra Anthropic, el creador de la serie de modelos Claude. La empresa reveló recientemente que detectó un esfuerzo masivo y coordinado para recolectar su propiedad intelectual. Según Anthropic, empresas como DeepSeek, Moonshot AI y MiniMax supuestamente utilizaron más de 24.000 cuentas falsas para generar más de 16 millones de conversaciones con Claude. ¿El objetivo? Utilizar el sofisticado razonamiento y la lógica de Claude para entrenar sus propios modelos competidores a una fracción del coste.
Para comprender por qué estas acusaciones son tan significativas, se debe entender el concepto de destilación de modelos. En un contexto de investigación legítimo, la destilación es una técnica común en la que un modelo «estudiante» más pequeño y eficiente es entrenado para imitar el comportamiento de un modelo «maestro» más grande y complejo. Esto permite a los desarrolladores crear una IA rápida y ligera que pueda ejecutarse en teléfonos inteligentes o hardware local, manteniendo gran parte de la inteligencia de un modelo masivo de nivel de centro de datos.
Sin embargo, un ataque de destilación ocurre cuando un competidor utiliza la API (Interfaz de Programación de Aplicaciones) del modelo de un rival para extraer sistemáticamente su conocimiento sin permiso. Piénselo como un estudiante que, en lugar de estudiar los libros de texto originales y hacer el trabajo de laboratorio, simplemente graba cada palabra que dice un profesor de clase mundial y utiliza esas grabaciones para crear un curso rival. El estudiante se ahorra años de esfuerzo y millones en matrícula, mientras que el trabajo original del profesor se devalúa.
La magnitud de la actividad reportada por Anthropic sugiere una operación altamente industrializada. Al crear 24.000 cuentas separadas, los atacantes probablemente intentaban eludir los «límites de velocidad» (rate limits), los frenos de seguridad que las empresas de IA implementan para evitar que un solo usuario acapare recursos o extraiga datos masivamente.
Al distribuir 16 millones de consultas entre estas cuentas, las empresas chinas supuestamente recopilaron un conjunto masivo de «datos sintéticos» de alta calidad. Estos datos son particularmente valiosos porque contienen el razonamiento de «cadena de pensamiento» por el que son famosos modelos como Claude 3.5 y Claude 4. Para una empresa como DeepSeek o Moonshot AI, estos datos recolectados actúan como un atajo, permitiéndoles cerrar la brecha entre sus capacidades actuales y el estado del arte sin los costes astronómicos del descubrimiento original.
Anthropic no está sola en sus quejas. A principios de este mes, OpenAI y Google emitieron advertencias similares, señalando que sus modelos propietarios estaban siendo consultados con patrones que sugerían una recolección automatizada de datos por parte de entidades vinculadas al sector tecnológico chino.
Esta tendencia resalta una creciente desesperación en la carrera global de la IA. A medida que el gobierno de EE. UU. endurece los controles de exportación sobre los chips NVIDIA de gama alta —el hardware esencial para entrenar la IA—, las empresas chinas se enfrentan a una «crisis de computación». Si no pueden acceder al hardware para entrenar modelos desde cero utilizando datos brutos, su camino más viable es «destilar» la inteligencia ya perfeccionada por las empresas estadounidenses que tienen chips de sobra.
Las implicaciones de estos ataques van mucho más allá de los balances corporativos. Estamos presenciando la consolidación de una «Guerra Fría de la IA», donde la propiedad intelectual es el principal campo de batalla.
| Característica | Entrenamiento Original | Ataque de Destilación |
|---|---|---|
| Coste | Miles de millones (Computación + Talento) | Millones (Tarifas de API + Scraping) |
| Plazo | Años de I+D | Meses de recolección de datos |
| Necesidades de Hardware | Decenas de miles de GPUs H100/B200 | Infraestructura en la nube estándar |
| Fuente de Datos | Rastreos web masivos + Feedback humano | Salidas del modelo de un rival |
Para los responsables políticos de EE. UU., esto es una preocupación de seguridad nacional. Si las empresas chinas pueden «cortocircuitar» con éxito el proceso de desarrollo, la ventaja que actualmente ostenta EE. UU. en seguridad y capacidad de IA podría evaporarse. Esto ha llevado a pedir requisitos más estrictos de «Conozca a su cliente» (KYC) para los proveedores de API de IA, tratando efectivamente el acceso a un LLM potente con el mismo nivel de escrutinio que una cuenta bancaria.
Los laboratorios de IA ya no solo se centran en hacer que sus modelos sean más inteligentes; se centran en hacer que sean más difíciles de robar. Actualmente se están implementando varias estrategias defensivas:
A medida que el panorama de la IA se vuelve más litigioso y defensivo, los desarrolladores y las empresas deben prepararse para un entorno más restrictivo.
Las acusaciones contra DeepSeek, Moonshot AI y MiniMax representan un cambio fundamental en la industria de la IA. La era de la «investigación abierta» se está cerrando rápidamente a medida que las empresas se dan cuenta de que sus resultados son sus activos más valiosos. Mientras EE. UU. sigue liderando la innovación pura, la capacidad de los competidores globales para reflejar esa innovación a través de la destilación sigue siendo una amenaza potente. La Guerra Fría de la IA ya no es un futuro teórico: es la realidad del presente.



Nuestra solución de correo electrónico cifrado y almacenamiento en la nube de extremo a extremo proporciona los medios más potentes para el intercambio seguro de datos, lo que garantiza la seguridad y la privacidad de sus datos.
/ Crear una cuenta gratuita