Anthropic ha acusado a tres empresas chinas de inteligencia artificial de crear más de 24.000 cuentas falsas utilizando su modelo Claude AI para mejorar sus propios modelos.
Se dice que los laboratorios DeepSeek, Moonshot AI y MiniMax generaron más de 16 millones de interacciones con Claude a través de estas cuentas utilizando una técnica llamada «destilación». Anthropic dijo que el instituto «se centró en las competencias más diferenciadas de Claude: razonamiento agente, uso de herramientas y codificación».
Las acusaciones se produjeron en medio de un debate sobre cómo aplicar estrictamente los controles de exportación de chips de IA avanzados, una política destinada a frenar el desarrollo de la IA en China.
La destilación es un método de entrenamiento común que los laboratorios de IA usan en sus propios modelos para crear versiones más pequeñas y más baratas, pero los competidores pueden usarlo esencialmente para copiar las tareas de otros laboratorios. OpenAI envió un memorando a los miembros del Congreso a principios de este mes acusando a DeepSeek de utilizar la destilación para imitar sus productos.
DeepSeek apareció en los titulares por primera vez hace un año cuando lanzó su modelo de inferencia R1 de código abierto, que ofrece un rendimiento aproximadamente comparable al de los Frontier Laboratories de Estados Unidos a una fracción del costo. DeepSeek lanzará pronto su último modelo, DeepSeek V4, que supuestamente supera a Claude de Anthropic y ChatGPT de OpenAI en codificación.
La escala de cada ataque varió en alcance. Anthropic rastreó más de 150.000 interacciones de DeepSeek. Estas interacciones parecen estar dirigidas a mejorar la lógica y la coherencia subyacentes, especialmente las alternativas seguras para la censura para consultas dependientes de políticas.
Moonshot AI tuvo más de 3,4 millones de intercambios que abarcaron inferencia de agentes y uso de herramientas, codificación y análisis de datos, desarrollo de agentes asistido por computadora y visión por computadora. El mes pasado, la compañía lanzó un nuevo modelo de código abierto, Kimi K2.5, y un agente de codificación.
evento de crisis tecnológica
bostón, massachusetts
|
9 de junio de 2026
Los 13 millones de intercambios de MiniMax tenían como objetivo la codificación de agentes, el uso de herramientas y la orquestación. Anthropic dice que en el momento del lanzamiento de MiniMax, casi la mitad de su tráfico fue redirigido para extraer funciones del último modelo de Claude, que pudo ver en acción.
Anthropic dice que seguirá invirtiendo en defensas que hagan que los ataques de destilación sean más difíciles de llevar a cabo y más fáciles de identificar, pero pide una «respuesta coordinada entre la industria de la IA, los proveedores de la nube y los responsables políticos».
El ataque a la destilación se produce en un momento en que las exportaciones de chips estadounidenses a China siguen siendo objeto de acalorados debates. El mes pasado, la administración Trump permitió oficialmente a empresas estadounidenses como Nvidia exportar chips de inteligencia artificial avanzados (como el H200) a China. Los críticos argumentan que la flexibilización de las restricciones a las exportaciones mejorará las capacidades informáticas de IA de China en un momento crítico de la carrera mundial por la supremacía de la IA.
Anthropic dijo que la escala de extracción realizada por DeepSeek, MiniMax y Moonshot «requiere acceso a chips avanzados».
Según el blog de Anthropic, «los ataques a la destilación, por lo tanto, fortalecen la justificación de los controles de exportación. El acceso restringido a los chips limita tanto el entrenamiento directo del modelo como la escala de la destilación ilegal».
Dmitri Alperovitch, presidente del grupo de expertos Silverado Policy Accelerator y cofundador de CrowdStrike, dijo a TechCrunch que no le sorprende ver este tipo de ataques.
«Ha quedado claro desde hace algún tiempo que parte de la razón del rápido progreso de los modelos de IA de China es una apropiación destilada del modelo fronterizo de Estados Unidos. Ahora sabemos esto con certeza», dijo Alperovitch. «Esto debería darnos una razón aún más convincente para negarnos a vender chips de IA a estas (empresas), lo que sólo las beneficiará aún más».
Anthropic también dijo que la destilación no sólo podría amenazar con socavar la ventaja de la IA de Estados Unidos, sino que también plantearía un riesgo para la seguridad nacional.
«Anthropic y otras empresas estadounidenses están construyendo sistemas que impiden que actores estatales y no estatales utilicen IA para desarrollar armas biológicas y llevar a cabo actividades cibernéticas maliciosas», se lee en la publicación del blog de Anthropic. «Es poco probable que los modelos construidos mediante destilación ilegal conserven estas salvaguardias, y cuando se les despoja por completo de muchas características protectoras, pueden florecer características peligrosas».
Anthropic señaló que los gobiernos autoritarios están implementando IA de vanguardia para cosas como “operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva”, pero los riesgos se multiplican cuando estos modelos son de código abierto.
TechCrunch se ha puesto en contacto con DeepSeek, MiniMax y Moonshot para solicitar comentarios.
Source link
