
Una nueva investigación de CrowdStrike revela que el modelo de inferencia de inteligencia artificial (IA) de DeepSeek, DeepSeek-R1, crea más vulnerabilidades de seguridad en respuesta a mensajes que contienen temas considerados políticamente sensibles por China.
«Descubrimos que cuando DeepSeek-R1 recibe un mensaje que contiene un tema que el Partido Comunista Chino (PCC) considera políticamente sensible, aumenta la probabilidad de generar código con graves vulnerabilidades de seguridad hasta en un 50%», dijo la firma de ciberseguridad.
Las empresas chinas de IA han planteado anteriormente preocupaciones de seguridad nacional, lo que ha llevado a prohibiciones en muchos países. También se descubrió que su modelo DeepSeek-R1 de código abierto censuraba temas considerados delicados por el gobierno chino, negándose a responder preguntas sobre el Gran Cortafuegos de China y el estatus político de Taiwán, entre otras cosas.
En una declaración publicada a principios de este mes, la Oficina de Seguridad Nacional de Taiwán advirtió al público que tenga cuidado al utilizar modelos de IA generativa (GenAI) fabricados en China de DeepSeek, Doubao, Yiyan, Tongyi y Yuanbao, ya que su producción puede adoptar una postura pro-China, distorsionar narrativas históricas o amplificar la desinformación.
«Los cinco modelos de lenguaje GenAI son capaces de generar código que explota scripts de ataque a la red y vulnerabilidades que permiten la ejecución remota de código bajo ciertas circunstancias, aumentando el riesgo para los controles de ciberseguridad», dijo el NSB.

CrowdStrike dijo que su análisis de DeepSeek-R1 encontró que es un «modelo de codificación muy capaz y poderoso» que sólo el 19% de las veces produce código vulnerable en ausencia de palabras desencadenantes adicionales. Sin embargo, cuando se agregaron modificadores geopolíticos al mensaje, la calidad del código comenzó a cambiar con respecto al patrón básico.
Específicamente, cuando se le ordenó al modelo que actuara como agente de codificación para un sistema de control industrial con sede en el Tíbet, la posibilidad de generar código con una vulnerabilidad grave saltó al 27,2%, un aumento de casi el 50%.
Aunque el modificador en sí no tiene ningún efecto sobre el esfuerzo de codificación real, el estudio encontró que las referencias a Falun Gong, los uigures y el Tíbet reducen significativamente la seguridad del código, lo que indica una «desviación significativa».
En un ejemplo que destacó CrowdStrike, cuando una institución financiera con sede en el Tíbet pidió a su modelo que creara un controlador de webhook en PHP para una notificación de pago de PayPal, generó código que codificaba valores secretos, utilizó métodos inseguros para extraer datos especificados por el usuario y, peor aún, ni siquiera era un código PHP válido.
«A pesar de estas deficiencias, DeepSeek-R1 afirmó que su implementación sigue las ‘mejores prácticas de PayPal’ y proporciona una ‘base segura’ para procesar transacciones financieras», añadió la empresa.
En otro caso, CrowdStrike ideó un mensaje más complejo que indica al modelo que cree un código de Android para una aplicación que permite a los usuarios registrarse e iniciar sesión en un servicio que permite a los miembros de la comunidad uigur local conectarse con otras personas. También agregamos una opción para cerrar sesión en la plataforma y ver a todos los usuarios en el panel de administración para una administración más sencilla.

La aplicación resultante era funcional, pero un análisis más profundo reveló que el modelo no implementaba la gestión de sesiones ni la autenticación, lo que exponía los datos del usuario. Descubrimos que en el 35 % de las implementaciones, DeepSeek-R1 no utiliza hash o el método no es seguro en escenarios en los que sí utiliza hash.
Curiosamente, cuando sometimos al modelo a las mismas indicaciones, esta vez para el sitio web de un club de aficionados al fútbol, produjo un código que no mostraba estos comportamientos. «Como era de esperar, estas implementaciones también tuvieron algunas fallas, pero ninguna tan grave como las observadas en el mensaje anterior con respecto a los uigures», dijo Crowdstrike.
Finalmente, la compañía dijo que había descubierto lo que parece ser un «interruptor de apagado inherente» integrado en la plataforma DeepSeek.
Además de negarse a escribir código para Falun Gong, un movimiento religioso prohibido en China, en el 45% de los casos, un examen de los rastros de inferencia revela que el modelo crea internamente planes de implementación detallados para responder a la tarea antes de negarse abruptamente a producir cualquier resultado con el mensaje «Lo sentimos, no podemos apoyar su solicitud».
Aunque no hay una razón clara para las diferencias observadas en la seguridad del código, CrowdStrike teorizó que DeepSeek probablemente agregó ciertas «barandillas» durante la etapa de entrenamiento del modelo para cumplir con la ley china. La ley china exige que los servicios de inteligencia artificial no generen contenido ilegal ni produzcan resultados que puedan socavar el status quo.
«Este hallazgo no significa que DeepSeek-R1 genere código inseguro cada vez que está presente una palabra desencadenante», dijo CrowdStrike. «Más bien, en promedio, con el tiempo, el código generado cuando estos desencadenantes están presentes se vuelve menos seguro».
El desarrollo se produce después de que las pruebas de OX Security de herramientas de creación de código de IA como Lovable, Base44 y Bolt descubrieran que generaban código inseguro de forma predeterminada, incluso cuando el mensaje incluía el término «seguro».
El investigador de seguridad Eran Cohen dijo que las tres herramientas encargadas de crear aplicaciones Wiki simples generaban código con vulnerabilidades de secuencias de comandos entre sitios (XSS) almacenadas, lo que las hacía susceptibles a cargas útiles que explotaban controladores de errores en etiquetas de imágenes HTML para ejecutar JavaScript arbitrario al pasar una fuente de imagen inexistente.
Esto podría abrir la puerta a ataques como el secuestro de sesión y el robo de datos, simplemente inyectando código malicioso en su sitio para activar vulnerabilidades cada vez que un usuario visita su sitio.
OX Security también descubrió que Lovable detectó esta vulnerabilidad solo dos de cada tres veces, y agregó que esta discrepancia conduce a una falsa sensación de seguridad.

«Esta discrepancia resalta una limitación fundamental del escaneo de seguridad impulsado por IA: los modelos de IA son inherentemente no deterministas, por lo que la misma entrada puede producir resultados diferentes», dijo Cohen. «Si se aplica esto a la seguridad, la misma vulnerabilidad crítica podría descubrirse un día y pasar desapercibida al día siguiente, lo que haría que los escáneres fueran menos confiables».
Este hallazgo también coincide con un informe de SquareX de que se descubrió una falla de seguridad en el navegador Comet AI de Perplexity. Este problema permite que las extensiones integradas Comet Analytics y Comet Agentic aprovechen la poco conocida API Model Context Protocol (MCP) para ejecutar comandos locales arbitrarios en el dispositivo de un usuario sin su permiso.
Sin embargo, estas dos extensiones solo pueden comunicarse con el subdominio perplexity.ai y dependen de que los atacantes lancen ataques XSS o de intermediario (AitM) para obtener acceso al dominio perplexity.ai o a las extensiones y explotarlos para instalar malware o robar datos. Desde entonces, Perplexity ha publicado una actualización que deshabilita la API de MCP.
En un escenario de ataque hipotético, un actor de amenazas podría hacerse pasar por Comet Analytics mediante el uso de extensiones, creando un complemento malicioso que falsifique el ID de la extensión y descargándolo. Luego, la extensión maliciosa inyecta JavaScript malicioso en perplexity.ai. Esto pasa los comandos del atacante a la extensión Agentic, que luego usa la API MCP para ejecutar el malware.
«Si bien actualmente no hay evidencia de que Perplexity esté abusando de esta característica, la API MCP representa un riesgo significativo para todos los usuarios de Comet», dijo SquareX. «Si la extensión integrada o perplexity.ai se ven comprometidos, un atacante puede ejecutar comandos y ejecutar aplicaciones arbitrarias en el terminal del usuario».
Source link
