Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

La vulnerabilidad de lectura fuera de límites de Ollama provoca una pérdida de memoria de proceso remoto

So you’ve heard these AI terms and nodded along; let’s fix that

La startup fintech Parker se declara en quiebra

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Identidad»La vulnerabilidad de lectura fuera de límites de Ollama provoca una pérdida de memoria de proceso remoto
Identidad

La vulnerabilidad de lectura fuera de límites de Ollama provoca una pérdida de memoria de proceso remoto

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.commayo 10, 2026No hay comentarios7 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

Vulnerabilidad de Orama

Los investigadores de ciberseguridad han revelado que Ollama tiene importantes vulnerabilidades de seguridad. La explotación exitosa de esta vulnerabilidad podría permitir que un atacante remoto y no autenticado pierda toda la memoria del proceso.

Esta falla de lectura fuera de límites puede afectar a más de 300.000 servidores en todo el mundo y se rastrea como CVE-2026-7482 (puntuación CVSS: 9,1). Llama sangrante con nombre en clave de Cyera.

Ollama es un popular marco de código abierto que le permite ejecutar modelos de lenguaje a gran escala (LLM) localmente en lugar de en la nube. En GitHub, el proyecto tiene más de 171.000 estrellas y se ha bifurcado más de 16.100 veces.

«Ollama anterior a 0.17.1 tiene una vulnerabilidad de lectura fuera de límites en el cargador de modelos GGUF», según la descripción de la falla en CVE.org. «El punto final /api/create acepta archivos GGUF proporcionados por el atacante donde el desplazamiento y el tamaño del tensor declarado exceden la longitud real del archivo. fs/ggml/gguf.go y server/quantization.go (WriteTo()) Durante la cuantificación, el servidor lee más allá de su búfer de montón asignado.

GGUF (formato unificado generado por GPT) es un formato de archivo que se utiliza para almacenar modelos de lenguaje de gran tamaño para que puedan cargarse y ejecutarse localmente fácilmente.

El núcleo del problema surge del uso por parte de Ollama de un paquete inseguro al crear un modelo a partir de un archivo GGUF, específicamente dentro de una función llamada «WriteTo()», que le permite realizar operaciones que eluden las garantías de seguridad de la memoria del lenguaje de programación.

En un escenario de ataque hipotético, un atacante malintencionado podría enviar un archivo GGUF especialmente diseñado con la forma del tensor configurada en un número muy grande al servidor Ollama expuesto, lo que desencadenaría una lectura del montón fuera de límites durante la creación del modelo utilizando el punto final /api/create. La explotación exitosa de la vulnerabilidad podría resultar en la divulgación de datos confidenciales de la memoria del proceso Ollama.

Esto puede incluir variables de entorno, claves API, mensajes del sistema y datos de conversaciones de usuarios simultáneos. Estos datos se pueden filtrar cargando los artefactos del modelo generado en un registro controlado por un atacante a través del punto final /api/push.

La cadena de explotación se desarrolla en tres pasos.

Cargue un archivo GGUF diseñado que contenga una forma de tensor inflado a un servidor Ollama accesible en red mediante una solicitud HTTP POST. El punto final /api/create se utiliza para activar la creación del modelo, lo que genera una vulnerabilidad de lectura fuera de límites. Extraiga datos de la memoria del montón a un servidor externo utilizando el punto final /api/push.

«A través de la inferencia de IA, un atacante puede aprender básicamente todo sobre una organización: claves API, código propietario, contratos con clientes, etc.», dijo el investigador de seguridad de Cyera Dor Attias.

«Además de eso, los ingenieros suelen conectar Ollama a herramientas como Claude Code. En tales casos, el impacto es aún mayor. La salida de todas las herramientas fluye al servidor de Ollama, se almacena en el montón y podría terminar en manos de un atacante».

Recomendamos que los usuarios apliquen las últimas correcciones, restrinjan el acceso a la red, auditen las instancias en ejecución para detectar exposición a Internet y aíslen y protejan las instancias detrás de firewalls. Dado que la API REST no proporciona autenticación lista para usar, también se recomienda implementar un proxy de autenticación o una puerta de enlace API delante de cada instancia de Ollama.

Dos fallas sin parchear en Ollama conducen a la ejecución persistente de código

El desarrollo se produce cuando los investigadores de Striga detallaron dos vulnerabilidades en el mecanismo de actualización de Windows de Ollama que podrían derivar en la ejecución de código persistente. Esta falla no se solucionó después de la publicación del 27 de enero de 2026 y se publicó después del período de publicación de 90 días.

Según el cofundador de Striga, Bartłomiej «Bartek» Dmitruk, el cliente de escritorio de Windows se inicia automáticamente al iniciar sesión desde la carpeta de inicio de Windows, escucha en 127.0.0(.)1:11434, busca periódicamente actualizaciones en segundo plano a través del punto final /api/update y ejecuta las actualizaciones pendientes la próxima vez que se inicie la aplicación.

Las vulnerabilidades identificadas están relacionadas con el recorrido de ruta y las comprobaciones de firmas faltantes, que, cuando se combinan con la rutina de inicio de sesión, podrían permitir que un atacante con la capacidad de influir en las respuestas de actualización ejecute código arbitrario en cada inicio de sesión. Los defectos se enumeran a continuación:

CVE-2026-42248 (puntuación CVSS: 7,7): vulnerabilidad de validación de firma que no valida los archivos binarios de actualización antes de la instalación, a diferencia de la versión macOS. CVE-2026-42249 (puntuación CVSS: 7,7): una vulnerabilidad de recorrido de ruta debido al hecho de que Windows Updater crea la ruta local para el directorio provisional del instalador directamente desde los encabezados de respuesta HTTP sin desinfectarlo.

Para explotar esta falla, un atacante necesitaría controlar un servidor de actualización al que pueda acceder el cliente Ollama de la víctima. Esta situación puede llevar a un escenario en el que se proporciona un archivo ejecutable arbitrario como parte del proceso de actualización y se escribe en la carpeta de inicio de Windows sin ningún problema de verificación de firmas.

Para obtener control sobre las respuestas de actualización, puede anular OLLAMA_UPDATE_URL para dirigir al cliente al servidor local a través de HTTP simple. La cadena de ataque también supone que AutoUpdateEnabled está activado, que es la configuración predeterminada.

Además, la falta de comprobaciones de integridad podría permitir que el código se ejecute automáticamente sin explotar la vulnerabilidad de recorrido de ruta. En este caso, el instalador se colocará en el directorio provisional esperado. La próxima vez que arranca desde la carpeta de inicio, se llama al proceso de actualización sin revalidar la firma y en su lugar se ejecuta el código del atacante.

Dicho esto, la ejecución remota de código no es persistente ya que la próxima actualización legítima sobrescribirá el archivo preparado. Agregar un recorrido de ruta a esto permite que un atacante malintencionado redirija el ejecutable para escribir fuera de su ruta normal, lo que permite la ejecución de código persistente.

Según CERT Polska, que se hizo cargo del proceso de divulgación coordinado, las versiones 0.12.10 a 0.17.5 de Ollama para Windows son vulnerables a dos fallos. Mientras tanto, le recomendamos que desactive las actualizaciones automáticas, elimine los accesos directos de Ollama existentes de su carpeta de inicio («%APPDATA%\Microsoft\Windows\Start Menu\Programs\Startup») y deshabilite la ruta de ejecución silenciosa al iniciar sesión.

«Las instalaciones de Ollama para Windows que ejecutan las versiones 0.12.10 a 0.22.0 son vulnerables», dijo Dmitruk. «El recorrido de ruta hace que un ejecutable elegido por el atacante se escriba en la carpeta de inicio de Windows. El ejecutable permanece allí porque no hay verificación de firma. Windows no realiza ninguna limpieza posterior a la escritura para eliminar archivos sin firmar en un actualizador en ejecución. En el siguiente inicio de sesión, Windows ejecuta lo que queda».

«Esta cadena genera una ejecución de código persistente y silenciosa en el nivel de privilegio del usuario que ejecuta Ollama. Las cargas útiles realistas incluyen un shell inverso, un ladrón de información para robar secretos del navegador o claves SSH, o un cuentagotas que gira hacia mecanismos de persistencia adicionales, cualquier cosa que se ejecute como el usuario actual. Eliminar el binario eliminado de la carpeta de inicio finaliza la persistencia, pero la falla subyacente permanece».


Source link

#BlockchainIdentidad #Ciberseguridad #ÉticaDigital #IdentidadDigital #Privacidad #ProtecciónDeDatos
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleSo you’ve heard these AI terms and nodded along; let’s fix that
corp@blsindustriaytecnologia.com
  • Website

Related Posts

cPanel WHM lanza correcciones para 3 nuevas vulnerabilidades – Parche ahora

mayo 9, 2026

El troyano bancario TCLBANKER ataca plataformas financieras a través de gusanos de WhatsApp y Outlook

mayo 8, 2026

La aplicación de historial de llamadas falsas roba pagos de los usuarios después de 7,3 millones de descargas en Play Store

mayo 8, 2026
Add A Comment
Leave A Reply Cancel Reply

el último

La vulnerabilidad de lectura fuera de límites de Ollama provoca una pérdida de memoria de proceso remoto

So you’ve heard these AI terms and nodded along; let’s fix that

La startup fintech Parker se declara en quiebra

GM acuerda pagar 12,75 millones de dólares en un acuerdo sobre privacidad de los conductores de California

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2026 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.