Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

Los niños ‘elegidos últimos en la clase de gimnasia’ se preparan para el Super Bowl

La estrella de la NBA Giannis Antetokounmpo se une al Calci como inversor

Legislador del estado de Nueva York propone una moratoria de tres años sobre nuevos centros de datos

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Identidad»Docker corrige una falla crítica de Ask Gordon AI que permite la ejecución de código a través de metadatos de imágenes
Identidad

Docker corrige una falla crítica de Ask Gordon AI que permite la ejecución de código a través de metadatos de imágenes

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.comfebrero 3, 2026No hay comentarios4 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

Ravi Lakshmanan3 de febrero de 2026Inteligencia artificial/vulnerabilidades

Los investigadores de ciberseguridad han detallado una falla de seguridad parcheada que afecta a Ask Gordon, el asistente de inteligencia artificial (IA) integrado en Docker Desktop y la interfaz de línea de comandos (CLI) de Docker. Esta falla podría explotarse para ejecutar código o filtrar datos confidenciales.

Esta vulnerabilidad crítica recibió el nombre en código DockerDash de la empresa de ciberseguridad Noma Labs. Docker resolvió este problema con el lanzamiento de la versión 4.50.0 en noviembre de 2025.

«Con DockerDash, se puede usar una única etiqueta de metadatos maliciosos en una imagen de Docker para comprometer un entorno Docker a través de un simple ataque de tres pasos: Gordon AI lee e interpreta las instrucciones maliciosas, las reenvía a una puerta de enlace MCP (Protocolo de contexto modelo) y las ejecuta a través de herramientas MCP», dijo Sasi Levi, jefe de investigación de seguridad de Noma, en un informe compartido con The Hacker News.

«Aprovechando la arquitectura actual del agente y de la puerta de enlace MCP, todas las etapas ocurren sin validación».

La explotación exitosa de esta vulnerabilidad podría resultar en la ejecución remota de código con un alto impacto en los sistemas CLI y en la nube o en la divulgación de datos con un alto impacto en las aplicaciones de escritorio.

Según Noma Security, el problema surge del hecho de que el asistente de IA trata los metadatos no verificados como comandos ejecutables, lo que permite que los metadatos se propaguen a través de varias capas sin verificación, lo que permite a los atacantes eludir los límites de seguridad. Como resultado, consultas simples de IA abren la puerta a la ejecución de herramientas.

Si el MCP actúa como tejido conectivo entre el modelo lingüístico a gran escala (LLM) y el entorno local, el problema es una falta de confianza en el contexto. Este problema se caracteriza como un caso de inyección de metacontexto.

«MCP Gateway no puede distinguir entre metadatos informativos (como las ETIQUETAS Docker estándar) e instrucciones internas ejecutables previamente aprobadas», dijo Levi. «Al incorporar instrucciones maliciosas en estos campos de metadatos, los atacantes pueden secuestrar el proceso de inferencia de la IA».

En un escenario de ataque hipotético, un atacante podría aprovechar una violación grave de los límites de confianza en la forma en que Ask Gordon analiza los metadatos del contenedor. Para lograr esto, el atacante crea una imagen de Docker maliciosa con instrucciones incrustadas en el campo Dockerfile LABEL.

Los campos de metadatos pueden parecer inofensivos, pero cuando Ask Gordon AI los procesa, se convierten en vectores de inyección. La cadena de ataque de ejecución del código es la siguiente:

El atacante expone una imagen de Docker con instrucciones LABEL armadas en el Dockerfile. Cuando la víctima solicita la imagen a Ask Gordon AI, Gordon lee los metadatos de la imagen, incluidos todos los campos LABEL, aprovechando la incapacidad de Ask Gordon para distinguir entre descripciones de metadatos legítimas e instrucciones maliciosas integradas. Gordon envía las instrucciones analizadas a MCP, una capa de middleware entre el agente de IA y el servidor MCP. Pide a Gordon que te transporte a Gateway. MCP Gateway interpreta esto como una solicitud estándar de una fuente confiable y llama a la herramienta MCP especificada sin ninguna validación adicional. La herramienta MCP ejecuta comandos con los privilegios Docker de la víctima, lo que da como resultado la ejecución del código.

Esta vulnerabilidad de extracción de datos utiliza la misma falla de inyección rápida como arma, pero apunta a la implementación Docker Desktop de Ask Gordon y aprovecha los privilegios de solo lectura del asistente para capturar datos internos confidenciales sobre el entorno de la víctima utilizando la herramienta MCP.

La información recopilada puede incluir detalles sobre herramientas instaladas, detalles del contenedor, configuración de Docker, directorios montados y topología de red.

Vale la pena señalar que la versión 4.50.0 de Ask Gordon también resuelve la vulnerabilidad de inyección rápida descubierta por Pillar Security. Esta vulnerabilidad podría permitir a un atacante secuestrar el Asistente y filtrar datos confidenciales modificando los metadatos del repositorio de Docker Hub con instrucciones maliciosas.

«La vulnerabilidad de DockerDash resalta la necesidad de tratar el riesgo de la cadena de suministro de IA como una amenaza importante en la actualidad», dijo Levi. «Esto demuestra que se pueden utilizar fuentes de entrada confiables para ocultar cargas maliciosas que manipulan fácilmente la ruta de ejecución de la IA. Para mitigar esta nueva clase de ataques, se debe implementar una validación de confianza cero para todos los datos contextuales proporcionados a los modelos de IA».


Source link

#BlockchainIdentidad #Ciberseguridad #ÉticaDigital #IdentidadDigital #Privacidad #ProtecciónDeDatos
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleEl fundador de Fitbit lanza una plataforma de inteligencia artificial para ayudar a las familias a gestionar su salud
Next Article Skyryse gastará otros 300 millones de dólares para hacer que volar sea más fácil y seguro, incluso en helicóptero
corp@blsindustriaytecnologia.com
  • Website

Related Posts

Advertencia sobre phishing de señales dirigido a agencias gubernamentales, políticos, militares y periodistas alemanes

febrero 7, 2026

La Revolución Legal es Digital: Conoce a TwinH, tu aliado de IA en la sala de justicia del futuro

febrero 6, 2026

Marco DKnife AitM vinculado a China, enrutadores destinados al secuestro de tráfico y distribución de malware

febrero 6, 2026
Add A Comment
Leave A Reply Cancel Reply

el último

Los niños ‘elegidos últimos en la clase de gimnasia’ se preparan para el Super Bowl

La estrella de la NBA Giannis Antetokounmpo se une al Calci como inversor

Legislador del estado de Nueva York propone una moratoria de tres años sobre nuevos centros de datos

Advertencia sobre phishing de señales dirigido a agencias gubernamentales, políticos, militares y periodistas alemanes

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2026 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.