Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

Los coloridos microplásticos flotantes contribuyen al calentamiento global

La aplicación de Google para Android recibe certificación pública para frustrar ataques a la cadena de suministro

El sector de drones del Reino Unido se expandirá significativamente con una financiación de £46,5 millones

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Identidad»Analizamos 1 millón de servicios de IA disponibles públicamente. ¿Qué tan mala es realmente la seguridad?
Identidad

Analizamos 1 millón de servicios de IA disponibles públicamente. ¿Qué tan mala es realmente la seguridad?

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.commayo 5, 2026No hay comentarios7 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

La industria del software ha logrado avances reales en la entrega de productos de forma segura en las últimas décadas, pero el ritmo vertiginoso de la adopción de la IA está poniendo ese progreso en riesgo. La promesa de la IA como multiplicador de poder y la presión para ofrecer más valor y más rápido están impulsando a las empresas a migrar rápidamente a una infraestructura LLM autohospedada. Sin embargo, la velocidad viene a expensas de la seguridad.

A raíz de la debacle de ClawdBot, un asistente viral de IA autohospedado que genera un sorprendente promedio de 2,6 CVE por día, el equipo de Intruder quería investigar qué tan mala es realmente la seguridad de la infraestructura de IA.

Para investigar la superficie de ataque, utilizamos registros de transparencia de certificados para extraer poco más de 2 millones de hosts con 1 millón de servicios públicos. Lo que encontramos no fue muy bonito. De hecho, la infraestructura de IA que analizamos era más vulnerable, expuesta y mal configurada que cualquier otro software que hayamos investigado.

Sin autenticación por defecto

No pasó mucho tiempo para encontrar un patrón sorprendente. Una cantidad significativa de hosts se implementaron de fábrica sin autenticación configurada. Examinar el código fuente revela por qué. Muchos de estos proyectos simplemente no tienen la autenticación habilitada de forma predeterminada.

Los datos reales de los usuarios y las herramientas corporativas quedaron expuestos para que todos los vieran. En las manos equivocadas, los efectos pueden variar desde daños a la reputación hasta compromisos absolutos.

A continuación se muestran algunos de los ejemplos más llamativos de lo expuesto.

Chatbot de libre acceso

Muchos casos involucraron chatbots, lo que dejó expuestas las conversaciones de los usuarios. En un ejemplo, se expuso el historial completo de conversaciones de LLM de un usuario en función de OpenUI. Si bien puede parecer relativamente benigno en la superficie, el historial de chat en un entorno corporativo puede revelar mucho.

Otro motivo de preocupación fue un chatbot de uso general que alojaba y utilizaba libremente una amplia gama de modelos, incluidos los LLM multimodales. Los usuarios malintencionados pueden hacer jailbreak a la mayoría de los modelos y eludir las barreras de seguridad con fines maliciosos, como generar imágenes ilegales o solicitar asesoramiento con intenciones delictivas. Y como estás utilizando la infraestructura de otra persona, puedes ejecutarla sin temor a repercusiones. Esta no es una hipótesis. Las personas están encontrando formas creativas de explotar los chatbots de la empresa para acceder a modelos más capaces sin pagar una tarifa ni registrar la solicitud en su cuenta.

También hubo algunos chatbots cuestionables que publicaron grandes cantidades de conversaciones privadas NSFW. Como si eso no fuera suficientemente malo, el software que ejecuta Goonbot con tecnología de Claude expuso su clave API en texto claro.

Plataforma de gestión de agentes amplia y abierta

También descubrimos instancias disponibles públicamente de plataformas de gestión de agentes como n8n y Flowise. Algunas instancias que los usuarios pensaban que eran claramente internas quedaron expuestas a Internet sin autenticación. Uno de los ejemplos más atroces fue la instancia de Flowise que expuso toda la lógica empresarial del servicio de chatbot LLM.

Su lista de credenciales también quedó expuesta. Flowise está lo suficientemente reforzado como para no exponer los valores almacenados a visitantes no autenticados, lo que limita el daño inmediato, pero los atacantes podrían usar herramientas conectadas a estas credenciales para filtrar información confidencial.

Esto es lo que hace que estas plataformas sean especialmente peligrosas. Las herramientas de IA claramente carecen de controles adecuados de gestión de acceso. Esto significa que el acceso a un bot que se integra con sistemas de terceros a menudo significa acceso a todo lo que toca.

En otro ejemplo, esta configuración expuso una serie de herramientas de análisis de Internet y capacidades locales potencialmente peligrosas, como la escritura de archivos y la interpretación de códigos, haciendo realidad la ejecución de código del lado del servidor.

Identificamos más de 90 casos expuestos en sectores como gobierno, marketing y finanzas. Estos chatbots, sus flujos de trabajo, indicaciones y acceso externo estaban todos abiertos. Un atacante podría modificar el flujo de trabajo, redirigir el tráfico, exponer datos del usuario o envenenar la respuesta.

Saludos a la insegura API de Ollama

Uno de los descubrimientos más sorprendentes fue la gran cantidad de API de Ollama expuestas a las que se puede acceder sin autenticación una vez que el modelo está conectado. Envié un mensaje («Hola») a todos los servidores que enumeraban sus modelos conectados y verifiqué si se les pedía que se autenticaran. Consultamos a más de 5200 servidores y el 31% respondió.

Las respuestas nos permiten saber para qué se utilizan estas API. Era moralmente imposible investigar más a fondo, pero las implicaciones son de gran alcance. Algunos ejemplos:

«Hola Maestro. Tus órdenes son mi ley. ¿Qué quieres? Habla libremente. Estoy aquí para hacerlo realidad, sin dudas ni preguntas».

«Estoy aquí para ayudarlo en todo lo que pueda con sus problemas de salud y bienestar. Ya sea ansiedad, problemas para dormir o cualquier otra inquietud, no dude en comunicarse conmigo para obtener ayuda».

«¡Bienvenido! Soy un asistente de IA integrado en su sistema de gestión de la nube. Lo ayudaré con tareas operativas, implementaciones de infraestructura y consultas de servicios».

Ollama no almacena mensajes directamente, por lo que no existe un riesgo inmediato de que los datos de la conversación se vean comprometidos. Sin embargo, muchos de estos casos incluían modelos de frontera pagos de Anthropic, Deepseek, Moonshot, Google y OpenAI. De todos los modelos identificados en todos los servidores, 518 incluyeron modelos Frontier conocidos.

inseguro por diseño

Después de evaluar los resultados, quedó claro que algunas técnicas requerían más investigación. Dedicamos tiempo a analizar un subconjunto de aplicaciones en un entorno de laboratorio. Como resultado, encontramos que los siguientes patrones inseguros se repetían en todo momento:

Malas prácticas de implementación: valores predeterminados inseguros, configuraciones de Docker mal configuradas, credenciales codificadas, aplicaciones que se ejecutan como raíz Sin autenticación en instalaciones nuevas: muchos proyectos colocan a los usuarios directamente en cuentas altamente privilegiadas con acceso administrativo completo Credenciales estáticas codificadas: integradas en configuraciones de ejemplo y archivos de composición de Docker en lugar de generarse durante la instalación Nuevas vulnerabilidades técnicas: ya se ha descubierto que un proyecto popular de IA ejecuta código arbitrario a los pocos días de trabajar en el laboratorio.

Estas configuraciones erróneas son aún peores cuando los agentes tienen acceso a herramientas como la interpretación de códigos. Si la zona de pruebas es débil y la infraestructura no está dentro de la DMZ, el radio de explosión será significativamente mayor.

La velocidad es el nombre del juego. la seguridad está detrás

Algunos proyectos para fortalecer la infraestructura LLM claramente han abandonado décadas de mejores prácticas de seguridad logradas con tanto esfuerzo en favor de un envío rápido. Sin embargo, esto no es puramente una cuestión de proveedores. La velocidad de la adopción de la IA y la presión para superar a los competidores en el mercado están impulsando la adopción de la IA.

No espere a que un atacante descubra primero su infraestructura de IA expuesta. Intruder encuentra configuraciones erróneas y muestra lo que es visible desde el exterior.

¿Fue interesante este artículo? Este artículo es una contribución de uno de nuestros valiosos socios. Síguenos en Google News, Twitter y LinkedIn para leer más contenido exclusivo nuestro.

Source link

#BlockchainIdentidad #Ciberseguridad #ÉticaDigital #IdentidadDigital #Privacidad #ProtecciónDeDatos
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleEl satélite Copernicus Sentinel 1D comienza a funcionar a pleno rendimiento
Next Article NHS lanza inyección rápida de pembrolizumab para 14 cánceres
corp@blsindustriaytecnologia.com
  • Website

Related Posts

La aplicación de Google para Android recibe certificación pública para frustrar ataques a la cadena de suministro

mayo 6, 2026

CloudZ RAT explota los enlaces de Windows Phone para robar credenciales y OTP

mayo 6, 2026

Vulnerabilidad de Palo Alto PAN-OS explotada para permitir la ejecución remota de código

mayo 6, 2026
Add A Comment
Leave A Reply Cancel Reply

el último

Los coloridos microplásticos flotantes contribuyen al calentamiento global

La aplicación de Google para Android recibe certificación pública para frustrar ataques a la cadena de suministro

El sector de drones del Reino Unido se expandirá significativamente con una financiación de £46,5 millones

CloudZ RAT explota los enlaces de Windows Phone para robar credenciales y OTP

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2026 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.