El miércoles, la compañía de seguridad de IA anunció $ 80 millones en nuevos fondos en la ronda dirigida por Sequoia Capital y Redpoint Ventures, con la participación del CEO de Wiz, Assaf Rappaport. Una fuente cercana al contrato dijo que la ronda era irregular y $ 450 millones.
«En nuestra opinión, una gran actividad económica proviene pronto del diálogo humano y la interacción AI-on-AI», dijo el cofundador Danrahab a TechCrunch.
Anteriormente conocida como Pattern Lab, la irregularidad ya es un jugador clave en la evaluación de IA. El trabajo de la compañía se cita en la calificación de seguridad del soneto Claude 3.7 y los modelos O3 y O4-Mini de OpenAI. En términos más generales, el marco de la compañía para calificar las capacidades de detección de vulnerabilidades de los modelos (llamados resolver) se usa ampliamente dentro de la industria.
La irregularidad ha realizado un trabajo importante sobre los riesgos existentes en el modelo, pero la compañía está recaudando fondos al observar algo aún más ambicioso. Descubra riesgos y acciones urgentes antes de que surjan en la naturaleza. La compañía ha creado sistemas elaborados en entornos simulados, permitiendo pruebas intensivas antes de que se liberen los modelos.
«Hay una simulación de red compleja con IA que juega el papel de atacante y un defensor», dice el cofundador Omer NEVO. «Entonces, cuando salen nuevos modelos, puedes ver dónde se mantiene la defensa y dónde no está».
La seguridad se ha convertido en un foco para la industria de la IA a medida que surgen más riesgos a medida que los modelos fronterizos presenta más riesgos. Operai revisó sus medidas de seguridad interna este verano, observando el potencial de espionaje corporativo.
Al mismo tiempo, los modelos de IA son cada vez más expertos en encontrar vulnerabilidades de software. Esta es una fuerza que tiene un significado serio tanto para el atacante como para el defensor.
Eventos de TechCrunch
San Francisco
|
27-29 de octubre de 2025
Para los fundadores irregulares, es el primero de muchos dolores de cabeza de seguridad causados por las crecientes capacidades de los modelos de idiomas a gran escala.
«Si el objetivo de Frontier Rabo es crear modelos cada vez más sofisticados y capaces, nuestro objetivo es asegurar estos modelos», dice Rahab. «Pero es un objetivo inspirador, así que esencialmente hay mucho que hacer en el futuro».
Source link
