Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

Con la llegada de la IA, la lealtad de los inversores (casi) ha desaparecido. Al menos 12 VC de OpenAI también respaldan a Anthropic

El ex equipo de Apple lanza Acme Weather, una nueva visión del pronóstico del tiempo

Anthropic acusa al laboratorio chino de inteligencia artificial de minar a Claude mientras Estados Unidos debate la exportación de chips de inteligencia artificial

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Startups»Anthropic acusa al laboratorio chino de inteligencia artificial de minar a Claude mientras Estados Unidos debate la exportación de chips de inteligencia artificial
Startups

Anthropic acusa al laboratorio chino de inteligencia artificial de minar a Claude mientras Estados Unidos debate la exportación de chips de inteligencia artificial

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.comfebrero 23, 2026No hay comentarios5 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

Anthropic ha acusado a tres empresas chinas de inteligencia artificial de crear más de 24.000 cuentas falsas utilizando su modelo Claude AI para mejorar sus propios modelos.

Se dice que los laboratorios DeepSeek, Moonshot AI y MiniMax generaron más de 16 millones de interacciones con Claude a través de estas cuentas utilizando una técnica llamada «destilación». Anthropic dijo que el instituto «se centró en las competencias más diferenciadas de Claude: razonamiento agente, uso de herramientas y codificación».

Las acusaciones se produjeron en medio de un debate sobre cómo aplicar estrictamente los controles de exportación de chips de IA avanzados, una política destinada a frenar el desarrollo de la IA en China.

La destilación es un método de entrenamiento común que los laboratorios de IA usan en sus propios modelos para crear versiones más pequeñas y más baratas, pero los competidores pueden usarlo esencialmente para copiar las tareas de otros laboratorios. OpenAI envió un memorando a los miembros del Congreso a principios de este mes acusando a DeepSeek de utilizar la destilación para imitar sus productos.

DeepSeek apareció en los titulares por primera vez hace un año cuando lanzó su modelo de inferencia R1 de código abierto, que ofrece un rendimiento aproximadamente comparable al de los Frontier Laboratories de Estados Unidos a una fracción del costo. DeepSeek lanzará pronto su último modelo, DeepSeek V4, que supuestamente supera a Claude de Anthropic y ChatGPT de OpenAI en codificación.

La escala de cada ataque varió en alcance. Anthropic rastreó más de 150.000 interacciones de DeepSeek. Estas interacciones parecen estar dirigidas a mejorar la lógica y la coherencia subyacentes, especialmente las alternativas seguras para la censura para consultas dependientes de políticas.

Moonshot AI tuvo más de 3,4 millones de intercambios que abarcaron inferencia de agentes y uso de herramientas, codificación y análisis de datos, desarrollo de agentes asistido por computadora y visión por computadora. El mes pasado, la compañía lanzó un nuevo modelo de código abierto, Kimi K2.5, y un agente de codificación.

evento de crisis tecnológica

bostón, massachusetts
|
9 de junio de 2026

Los 13 millones de intercambios de MiniMax tenían como objetivo la codificación de agentes, el uso de herramientas y la orquestación. Anthropic dice que en el momento del lanzamiento de MiniMax, casi la mitad de su tráfico fue redirigido para extraer funciones del último modelo de Claude, que pudo ver en acción.

Anthropic dice que seguirá invirtiendo en defensas que hagan que los ataques de destilación sean más difíciles de llevar a cabo y más fáciles de identificar, pero pide una «respuesta coordinada entre la industria de la IA, los proveedores de la nube y los responsables políticos».

El ataque a la destilación se produce en un momento en que las exportaciones de chips estadounidenses a China siguen siendo objeto de acalorados debates. El mes pasado, la administración Trump permitió oficialmente a empresas estadounidenses como Nvidia exportar chips de inteligencia artificial avanzados (como el H200) a China. Los críticos argumentan que la flexibilización de las restricciones a las exportaciones mejorará las capacidades informáticas de IA de China en un momento crítico de la carrera mundial por la supremacía de la IA.

Anthropic dijo que la escala de extracción realizada por DeepSeek, MiniMax y Moonshot «requiere acceso a chips avanzados».

Según el blog de Anthropic, «los ataques a la destilación, por lo tanto, fortalecen la justificación de los controles de exportación. El acceso restringido a los chips limita tanto el entrenamiento directo del modelo como la escala de la destilación ilegal».

Dmitri Alperovitch, presidente del grupo de expertos Silverado Policy Accelerator y cofundador de CrowdStrike, dijo a TechCrunch que no le sorprende ver este tipo de ataques.

«Ha quedado claro desde hace algún tiempo que parte de la razón del rápido progreso de los modelos de IA de China es una apropiación destilada del modelo fronterizo de Estados Unidos. Ahora sabemos esto con certeza», dijo Alperovitch. «Esto debería darnos una razón aún más convincente para negarnos a vender chips de IA a estas (empresas), lo que sólo las beneficiará aún más».

Anthropic también dijo que la destilación no sólo podría amenazar con socavar la ventaja de la IA de Estados Unidos, sino que también plantearía un riesgo para la seguridad nacional.

«Anthropic y otras empresas estadounidenses están construyendo sistemas que impiden que actores estatales y no estatales utilicen IA para desarrollar armas biológicas y llevar a cabo actividades cibernéticas maliciosas», se lee en la publicación del blog de Anthropic. «Es poco probable que los modelos construidos mediante destilación ilegal conserven estas salvaguardias, y cuando se les despoja por completo de muchas características protectoras, pueden florecer características peligrosas».

Anthropic señaló que los gobiernos autoritarios están implementando IA de vanguardia para cosas como “operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva”, pero los riesgos se multiplican cuando estos modelos son de código abierto.

TechCrunch se ha puesto en contacto con DeepSeek, MiniMax y Moonshot para solicitar comentarios.


Source link

#Aceleradoras #CapitalRiesgo #EcosistemaStartup #Emprendimiento #InnovaciónEmpresarial #Startups
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleUber quiere convertirse en la navaja suiza de los robotaxis
Next Article El ex equipo de Apple lanza Acme Weather, una nueva visión del pronóstico del tiempo
corp@blsindustriaytecnologia.com
  • Website

Related Posts

Con la llegada de la IA, la lealtad de los inversores (casi) ha desaparecido. Al menos 12 VC de OpenAI también respaldan a Anthropic

febrero 23, 2026

El ex equipo de Apple lanza Acme Weather, una nueva visión del pronóstico del tiempo

febrero 23, 2026

Uber quiere convertirse en la navaja suiza de los robotaxis

febrero 23, 2026
Add A Comment
Leave A Reply Cancel Reply

el último

Con la llegada de la IA, la lealtad de los inversores (casi) ha desaparecido. Al menos 12 VC de OpenAI también respaldan a Anthropic

El ex equipo de Apple lanza Acme Weather, una nueva visión del pronóstico del tiempo

Anthropic acusa al laboratorio chino de inteligencia artificial de minar a Claude mientras Estados Unidos debate la exportación de chips de inteligencia artificial

Uber quiere convertirse en la navaja suiza de los robotaxis

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2026 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.