
La empresa de inteligencia artificial (IA) Anthropic ha revelado que su último modelo de lenguaje a gran escala (LLM), Claude Opus 4.6, ha descubierto más de 500 fallas de seguridad de alta gravedad previamente desconocidas en bibliotecas de código abierto como Ghostscript, OpenSC y CGIF.
Claude Opus 4.6, lanzado el jueves, incluye mejoras en las habilidades de codificación, como revisión de código y capacidades de depuración, así como mejoras en tareas como análisis financiero, investigación y documentación.
Anthropic dijo que el modelo es «significativamente mejor» a la hora de encontrar vulnerabilidades de alta gravedad sin la necesidad de herramientas específicas para tareas, andamios personalizados o indicaciones especiales, y que aprovecha el modelo para descubrir y remediar vulnerabilidades en software de código abierto.
«Opus 4.6 lee y razona sobre el código de la misma manera que lo hacen los investigadores humanos; analiza correcciones pasadas para encontrar errores similares que no han sido solucionados, encuentra patrones que tienden a causar problemas, comprende partes de la lógica lo suficientemente bien como para saber exactamente qué entradas la romperán», añadió.
Antes de su debut, el equipo Frontier Red de Anthropic probó el modelo dentro de un entorno virtualizado, dándole las herramientas necesarias como depuradores y fuzzers para encontrar fallas en proyectos de código abierto. El objetivo era evaluar las capacidades listas para usar de los modelos sin proporcionar instrucciones sobre cómo usar estas herramientas o información que ayudaría a notificar mejor las vulnerabilidades.
La compañía también dijo que verificó cada falla descubierta para asegurarse de que no fuera un engaño (es decir, una ilusión) y que LLM se utilizó como herramienta para priorizar las vulnerabilidades de corrupción de memoria más graves identificadas.
A continuación se muestran algunas de las fallas de seguridad reportadas por Claude Opus 4.6. Desde entonces, sus respectivos mantenedores los han parcheado.
Analizar el historial de confirmaciones de Git para identificar vulnerabilidades de Ghostscript que pueden provocar fallos mediante comprobaciones de límites faltantes. Identificar vulnerabilidades de desbordamiento de búfer de OpenSC mediante la búsqueda de llamadas a funciones como strrchr() y strcat(). Vulnerabilidad de desbordamiento de búfer de montón CGIF (corregida en la versión 0.5.1).
Anthropic dijo que el error CGIF es «particularmente interesante porque activar esta vulnerabilidad requiere una comprensión conceptual del algoritmo LZW y cómo se relaciona con el formato de archivo GIF». «Los fuzzers tradicionales (e incluso los fuzzers guiados por cobertura) tienen dificultades para introducir este tipo de vulnerabilidades porque requieren que se seleccionen ramas específicas».
«De hecho, incluso si CGIF cubriera el 100% de los circuitos y ramas, esta vulnerabilidad aún podría pasar desapercibida. Requiere una secuencia de operaciones muy específica».
La compañía promociona modelos de IA como Claude como herramientas importantes para que los defensores «nivelen el campo de juego». Pero también hizo hincapié en ajustar y actualizar las medidas de seguridad a medida que se identifican amenazas potenciales e instalar barandillas adicionales para evitar abusos.
Esta divulgación se produce semanas después de que Anthropic dijera que su modelo Claude actual puede montar con éxito un ataque de varias etapas contra una red que contiene docenas de hosts al encontrar y explotar fallas de seguridad conocidas utilizando solo herramientas estándar de código abierto.
«Esto muestra la rapidez con la que se están eliminando las barreras al uso de la IA en flujos de trabajo cibernéticos relativamente autónomos, y destaca la importancia de los fundamentos de seguridad, como la rápida reparación de vulnerabilidades conocidas».
Source link
