
Google reveló el martes que su marco de descubrimiento de vulnerabilidad asistido por el modelo de lenguaje grande (LLM) descubrió fallas de seguridad en el motor de la base de datos de código abierto de SQLite antes de ser explotado en la naturaleza.
La vulnerabilidad rastreada como CVE-2025-6965 (puntaje CVSS: 7.2) es un defecto de corrupción de memoria que afecta a todas las versiones antes de 3.50.2. Fue descubierto por Big Sleep, un agente de inteligencia artificial (IA) lanzado por Google el año pasado como parte de una colaboración entre DeepMind y Google Project Zero.
«Los atacantes que pueden insertar cualquier declaración SQL en su solicitud leerán el final de la matriz, ya que pueden causar desbordamientos enteros», dijo el mantenedor de proyectos SQLite en su aviso.

El gigante tecnológico describió a CVE-2025-6965 como un importante problema de seguridad «conocido por amenazar solo a los actores y el riesgo de ser explotados». Google no reveló quién era el actor de amenaza.
«La combinación de inteligencia de amenazas y un gran sueño permitió a Google predecir que una vulnerabilidad realmente se utilizaría muy cerca y podría reducirla de antemano», dijo el presidente de Asuntos Globales, Google y Alphabet.
«Creemos que esta es la primera vez que los agentes de IA se usan directamente para bloquear los esfuerzos para explotar las vulnerabilidades salvajes».
En octubre de 2024, Big Sleep estaba detrás del descubrimiento de otro defecto en SQLite. Esta es una vulnerabilidad subflujo del búfer de pila que podría haberse explotado para causar bloqueos o ejecución de código arbitrario.
En línea con el desarrollo, Google ha publicado un documento técnico para construir un agente de IA seguro y bien definido para controladores humanos. Sus capacidades se limitan cuidadosamente para evitar el fraude potencial y la divulgación de datos confidenciales, y sus acciones son observables y transparentes.
«Los enfoques de seguridad del sistema tradicionales (como limitar las acciones de los agentes implementadas a través del software clásico) carecen de la conciencia del contexto requerida para los agentes multipropósito, lo que permite que las empresas de servicios públicos estén demasiado restringidos».
«Por el contrario, la seguridad puramente basada en la inferencia (que se basa únicamente en el juicio del modelo de IA) es insuficiente, y los LLM actuales son susceptibles a operaciones como inyecciones rápidas, y aún no pueden proporcionar garantías suficientemente robustas».
Para mitigar los riesgos críticos asociados con la seguridad del agente, la compañía dijo que ha adoptado un enfoque detallado híbrido que combina las fortalezas tanto del control determinista tradicional como de la defensa dinámica basada en la inferencia.

La idea es crear límites sólidos en torno al entorno operativo del agente para mitigar los comportamientos maliciosos implementados como resultado de inyecciones rápidas para que el riesgo de resultados dañinos se reduzca considerablemente.
«Este enfoque detallado se basa en los límites forzados alrededor del entorno de producción del agente de IA para evitar posibles escenarios en el peor de los casos, incluso si el proceso de inferencia interna del agente se ve comprometido o erróneo por ataques sofisticados o insumos inesperados», dijo Google.
«Este enfoque de múltiples capas reconoce que el juicio puramente basado en la IA no es suficiente incluso para los sistemas puramente basados en reglas».
Source link
