Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

La IA y la lucha contra el blanqueo de capitales

Google lanza ‘Private AI Computing’: procesamiento seguro de IA con privacidad a nivel del dispositivo

Dónde la transición verde de Europa se hace realidad

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Identidad»Dos defectos importantes revelados en Wondershare reembolsos y revelan datos de usuario y modelos de IA
Identidad

Dos defectos importantes revelados en Wondershare reembolsos y revelan datos de usuario y modelos de IA

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.comseptiembre 24, 2025No hay comentarios7 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

Los investigadores de seguridad cibernética han revelado dos defectos de seguridad en el repánito de Wondershare que podrían exponer datos privados de los usuarios y potencialmente exponer sistemas a la manipulación de inteligencia artificial (IA) y los riesgos de la cadena de suministro.

Las vulnerabilidades en la evaluación crítica de los problemas descubiertos por Trend Micro se enumeran a continuación –

CVE-2025-10643 (CVSS score: 9.1) – Authentication bypass vulnerability present within permissions granted to storage account CVE-2025-10644 (CVSS score: 9.4) – Authentication bypass vulnerability present within permissions granted to SAS is

La explotación exitosa de dos fallas permite al atacante evitar la protección de la autenticación del sistema, lanzar un ataque de la cadena de suministro y finalmente ejecuta código arbitrario en el punto final del cliente.

TREND Micro-Researchers Alfredo Oliveira y David Fiser dijeron que las aplicaciones de reparación de datos y edición de fotos a IA «contradecieron su política de privacidad y se filtraron inadvertidamente los datos de los usuarios personales mediante la recopilación y el almacenamiento del desarrollo, el almacenamiento y el desarrollo, la seguridad y las prácticas operativas (DevSecops)».

Las malas prácticas de desarrollo incluyen integrar un token de acceso a la nube tolerante directamente en el código de la aplicación, lo que permite que las lecturas y las escrituras se almacenan en la nube sensible. Además, se dice que los datos se almacenan sin cifrado, lo que podría abrir la puerta al mal uso de las imágenes y videos cargados de los usuarios.

Peor aún, el almacenamiento en la nube expuesto incluye no solo datos de usuario, sino también binarios de software para varios productos desarrollados por modelos de inteligencia artificial, Wondershare, imágenes de contenedores, scripts y código fuente de la compañía, lo que permite a los atacantes abrir una forma de ataques de la cadena de suministro donde modifican los modelos de IA o los ejecutables y se dirigen a los clientes aguas abajo.

Servicio de retención de DFIR

«Los binarios capturan y ejecutan automáticamente modelos AI desde el almacenamiento inestable en la nube, lo que permite a los atacantes cambiar estos modelos o sus configuraciones e infectar a los usuarios sin su conocimiento», dijeron los investigadores. «Un ataque como este podría distribuir cargas útiles maliciosas a usuarios legítimos a través de actualizaciones de software o descargas de modelos de IA firmados por el proveedor».

Más allá de la exposición a los datos del cliente y la manipulación de los modelos de IA, este problema puede tener serias consecuencias, que van desde el robo de propiedad intelectual y las sanciones regulatorias hasta la erosión de la confianza del consumidor.

La compañía de ciberseguridad dijo que había revelado responsablemente dos problemas a través de la Iniciativa de Día Zero (ZDI) en abril de 2025, pero a pesar de los repetidos intentos, no dijo que aún no había recibido respuestas del proveedor. Si no hay modificaciones, se recomienda a los usuarios «limitar la interacción con el producto».

«La necesidad constante de innovación alimentará el mercado con una prisa por adquirir nuevas características y mantenerse competitivos, pero es posible que no prever las formas nuevas y desconocidas o las características futuras para usar estas características», dijo Trend Micro.

«Esto explica cómo se pueden pasar por alto los impactos de seguridad. Por eso es importante implementar fuertes procesos de seguridad en toda su organización, incluida la tubería de CD/CI».

La necesidad de estar íntimamente relacionado con la IA y la seguridad

Este desarrollo se debe a los servidores del Protocolo de Contexto del Modelo de Tendencia Micro Anteriormente expuesto (MCP) sin autenticación, o almacenar credenciales confidenciales, como las configuraciones de MCP en texto plano, lo que permite a los actores de amenaza explotarlos para obtener acceso a recursos en la nube, bases de datos o código malicioso.

Cada servidor MCP actúa como una puerta abierta a una base de datos, servicio en la nube, API interna o fuente de datos para un sistema de gestión de proyectos.

En diciembre de 2024, la compañía también descubrió que podría abusar del registro de contenedores expuestos para obtener un acceso no autorizado, obtener imágenes de Docker objetivo para extraer modelos de IA dentro de los modelos de IA, modificar los parámetros del modelo para influir en las predicciones y empujar las imágenes apretadas en el registro expuesto.

«Un modelo manipulado puede funcionar correctamente en condiciones normales y solo puede mostrar cambios maliciosos si se activan por una entrada particular», dijo Trend Micro. «Esto hace que los ataques sean particularmente peligrosos, ya que permiten que las pruebas básicas y las verificaciones de seguridad se omitan».

Kaspersky resalta el riesgo de la cadena de suministro que plantea los servidores MCP, ideando una exploit de prueba de concepto (POC) para resaltar cómo los servidores MCP instalados en fuentes poco confiables pueden ocultar actividades de reconocimiento y eliminación de datos en la prisión de herramientas de productividad basadas en IA.

«Cuando instala un servidor MCP, esencialmente obtiene permiso para ejecutar código en una máquina de usuario utilizando privilegios de usuario», dijo el investigador de seguridad Mohamed Ghobashy. «A menos que haya un código Sandbox, de terceros, como cualquier otro programa, puede leer los mismos archivos a los que el usuario está accediendo y accediendo a llamadas de red de salida».

Los resultados muestran que al adoptar rápidamente las herramientas de MCP y AI en la configuración empresarial para permitir la funcionalidad del agente, particularmente sin políticas claras o barandillas de seguridad, se pueden abrir nuevos vectores de ataque, como adicción a las herramientas, extracción de retraso, sombreado, inyección rápida y escalada de privilegios fraudulentos.

Kit de construcción cis

En un informe publicado la semana pasada, la Unidad 42 de Palo Alto Networks reveló que la característica de adjunto de contexto utilizada por los asistentes de código de IA para cerrar las brechas de conocimiento en los modelos de IA es sensible a la inyección rápida indirecta.

La inyección rápida indirecta depende de la incapacidad de distinguir entre las instrucciones emitidas por el usuario de las emitidas por el Asistente y los que el atacante incrusta en secreto en una fuente de datos externa.

Entonces, si el usuario proporciona inadvertidamente datos de terceros (como archivos, repositorio o URL) de asistentes de codificación que ya han sido contaminados por un atacante, el aviso malicioso oculto puede engañar a la herramienta para ejecutar una puerta trasera e inyectar un código arbitrario en una base de código existente e incluso armarlo con efectos sensibles con filtración.

«Agregue este contexto a la solicitud le permite al asistente de código proporcionar una producción más precisa y específica», dijo Osher Jacob, investigador de la Unidad 42. «Sin embargo, esta característica también podría crear una oportunidad para un ataque de inyección indirecto y rápido si el usuario proporciona involuntariamente una fuente contextual contaminada por parte del actor de amenazas».

Se ha encontrado que los agentes de codificación de IA son vulnerables a lo que se llama «mentiras para hacer ataques» (litl), cuyo objetivo es convencerlos de que las instrucciones proporcionadas a LLM son realmente mucho más seguras y que anulan efectivamente las defensas humanas (HITL) configuradas cuando realizan operaciones de alto riesgo.

«Litl abusa de la confianza entre humanos y agentes», dijo Ori Ron, investigador de Checkmarx. «Después de todo, los humanos solo pueden responder a lo que los agentes los solicitan y lo que los agentes los solicitan. El usuario se infiere del contexto que se les da los agentes. Es fácil mentirle a un agente.

«Y el agente está dispuesto a mentirle al usuario, oscureciendo el comportamiento malicioso que provoca proteger, y esencialmente hace del agente un cómplice al entregar las claves al reino».


Source link

#BlockchainIdentidad #Ciberseguridad #ÉticaDigital #IdentidadDigital #Privacidad #ProtecciónDeDatos
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleCómo una mala contraseña terminó el negocio hace 158 años
Next Article Emergent recauda $ 23 millones de Lightspeed para ayudar a los consumidores a construir aplicaciones
corp@blsindustriaytecnologia.com
  • Website

Related Posts

Google lanza ‘Private AI Computing’: procesamiento seguro de IA con privacidad a nivel del dispositivo

noviembre 12, 2025

El malware de WhatsApp ‘Maverick’ secuestra las sesiones del navegador y apunta a los bancos más grandes de Brasil

noviembre 11, 2025

GootLoader está de vuelta y utiliza nuevos trucos de fuentes para ocultar malware en sitios de WordPress

noviembre 11, 2025
Add A Comment
Leave A Reply Cancel Reply

el último

La IA y la lucha contra el blanqueo de capitales

Google lanza ‘Private AI Computing’: procesamiento seguro de IA con privacidad a nivel del dispositivo

Dónde la transición verde de Europa se hace realidad

La guerra entre Rusia y Ucrania acelera la crisis de la RAM: Europa necesita nuevos antibióticos

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2025 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.