
La inteligencia artificial (IA) es muy prometedora para mejorar las ciberdefensas y facilitar la vida del personal de seguridad. Esto ayuda a los equipos a eliminar la fatiga por alertas, identificar patrones más rápido y alcanzar niveles de escala que los analistas humanos por sí solos no pueden igualar. Pero hacer realidad ese potencial depende de proteger los sistemas que lo hacen posible.
Todas las organizaciones que experimentan con IA en sus operaciones de seguridad están ampliando su superficie de ataque, ya sea conscientemente o no. Sin una gobernanza clara, una gestión de identidad sólida y visibilidad de cómo la IA toma decisiones, incluso las implementaciones bien intencionadas pueden generar riesgos más rápido de lo que pueden mitigarse. Para beneficiarse verdaderamente de la IA, los defensores deben abordar su protección con el mismo rigor que aplican a otros sistemas críticos. Esto significa establecer confianza en los datos que provienen del aprendizaje, establecer responsabilidad por las acciones que realizan los datos y monitorear los resultados que producen. Si se protege adecuadamente, la IA puede aumentar, en lugar de reemplazar, las capacidades humanas, permitiendo a los profesionales trabajar de manera más inteligente, responder más rápido y defenderse de manera más efectiva.
Establecer confianza en los sistemas de IA Agentic
A medida que las organizaciones comienzan a integrar la IA en sus flujos de trabajo de defensa, la seguridad de la identidad se convierte en la base de la confianza. Cada modelo, script o agente autónomo que se ejecuta en producción representa una nueva identidad que puede acceder a datos, emitir comandos e influir en los resultados de la defensa. Si estas identidades no se gestionan adecuadamente, las herramientas destinadas a aumentar la seguridad pueden convertirse silenciosamente en una fuente de riesgo.
La llegada de los sistemas Agentic AI hace que esto sea especialmente importante. Estos sistemas hacen más que simplemente analizar. Pueden actuar sin intervención humana. Clasifique alertas, enriquezca el contexto o active manuales de respuesta bajo la autoridad delegada de operadores humanos. Cada acción es efectivamente una transacción de confianza. Esa confianza debe estar vinculada a la identidad, autenticada mediante políticas y auditable de un extremo a otro.
Los mismos principios que protegen a las personas y los servicios deberían aplicarse a los agentes de IA.
Credenciales con alcance y privilegios mínimos para garantizar que cada modelo o agente tenga acceso solo a los datos y la funcionalidad necesarios para su tarea. La autenticación sólida y la rotación de claves evitan la suplantación de identidad y la fuga de credenciales. Los registros de auditoría y procedencia de la actividad le permiten rastrear, verificar y, opcionalmente, revertir todas las acciones iniciadas por la IA. La segmentación y el aislamiento impiden el acceso entre agentes, lo que garantiza que un proceso comprometido no pueda afectar a otros procesos.
En la práctica, esto significa tratar todos los sistemas de IA de los agentes como identidades de primera clase dentro del marco de IAM. Al igual que los usuarios y las cuentas de servicio, cada uno requiere un propietario, una política de ciclo de vida y un alcance de monitoreo definidos. Las capacidades a menudo cambian más rápido de lo diseñado, por lo que los equipos de defensa deben validar continuamente de qué son capaces los agentes, no solo lo que pretenden. Una vez que se establece una base de identidad, los defensores pueden centrar su atención en la seguridad más amplia del sistema.
Proteger la IA: mejores prácticas para el éxito
Proteger la IA comienza con proteger los sistemas que la hacen posible: los modelos, los canales de datos y las integraciones que se integran en las operaciones de seguridad del día a día. sin embargo
Para proteger las redes y los puntos finales, los sistemas de IA deben tratarse como una infraestructura de misión crítica que requiere una defensa continua y en capas.
El SANS Secure AI Blueprint describe una vía de protección de la IA que proporciona un punto de partida claro. Basado en las Pautas de seguridad de IA crítica de SANS, este plan define seis dominios de control que se traducen directamente en la práctica.
Control de acceso: aplique privilegios mínimos y una autenticación sólida para todos los modelos, conjuntos de datos y API. Registramos y revisamos continuamente el acceso para evitar el uso no autorizado. Control de datos: valide, desinfecte y clasifique todos los datos utilizados para entrenamiento, aumento o inferencia. El almacenamiento seguro y el seguimiento del linaje reducen el riesgo de envenenamiento del modelo y fuga de datos. Estrategia de implementación: refuerce su proceso y su entorno de IA mediante sandboxing, activación de CI/CD y red teaming antes del lanzamiento. Trate las implementaciones como eventos controlados y auditables en lugar de experimentos. Seguridad de inferencia: proteja sus modelos de inyecciones solicitadas y uso indebido aplicando validación de entrada/salida, barreras de seguridad y rutas de escalada para acciones de alto impacto. Monitoreo: observe continuamente el comportamiento del modelo y los resultados en busca de derivas, anomalías y signos de compromiso. La telemetría eficaz permite a los defensores detectar operaciones antes de que se propaguen. Seguridad del modelo: verifique las versiones, las firmas y la integridad del modelo durante todo el ciclo de vida para garantizar la confiabilidad y evitar intercambios y reentrenamiento no autorizados.
Estos controles están directamente alineados con el marco de gestión de riesgos de IA del NIST y el OWASP Top 10 para LLM. Estos resaltan las vulnerabilidades más comunes y críticas en los sistemas de IA, desde la inyección rápida y la integración insegura de complementos hasta el envenenamiento de modelos y la fuga de datos. La aplicación de mitigaciones de los marcos dentro de estos seis dominios puede traducir la orientación en defensas operativas. Con estas bases establecidas, su equipo puede centrarse en utilizar la IA de manera responsable sabiendo cuándo confiar en la automatización y cuándo mantener a los humanos involucrados.
Equilibra la expansión y la automatización
Los sistemas de inteligencia artificial pueden ayudar a los profesionales humanos, como los pasantes que nunca duermen. Sin embargo, es importante que los equipos de seguridad diferencien entre qué automatizar y qué reforzar. Algunas tareas se benefician de la automatización total, especialmente aquellas que son reproducibles, medibles y tienen bajo riesgo en caso de errores. Sin embargo, algunos requieren supervisión humana directa porque el contexto, la intuición o la ética son más importantes que la velocidad.
El refuerzo de amenazas, el análisis de registros y la deduplicación de alertas son candidatos principales para la automatización. Se trata de procesos basados en patrones y que utilizan muchos datos y que favorecen la coherencia sobre la creatividad. Por el contrario, las decisiones sobre el alcance, la atribución y la respuesta de los incidentes se basan en un contexto que la IA no puede comprender completamente. Aquí es donde la IA debe ayudar descubriendo métricas, sugiriendo próximos pasos y resumiendo los hallazgos, mientras los profesionales conservan la autoridad para tomar decisiones.
Encontrar ese equilibrio requiere madurez en el diseño del proceso. Los equipos de seguridad deben categorizar los flujos de trabajo según el margen de error y el costo de las fallas de automatización. Si el riesgo de falsos positivos o de matices faltantes es alto, mantenga a los humanos informados. Si puede medir objetivamente la precisión, deje que la IA acelere su trabajo.
¡Únase a nosotros en SANS Surge 2026!
Profundizaremos en este tema en nuestra conferencia magistral en SANS Surge 2026 (del 23 al 28 de febrero de 2026), explorando cómo los equipos de seguridad pueden garantizar que sus sistemas de inteligencia artificial puedan confiar en ellos de manera segura. Si su organización está avanzando rápidamente en la adopción de la IA, este evento puede ayudarle a realizar una transición más segura. Únase a nosotros para conectarse con pares, aprender de expertos y ver cómo es realmente la IA segura.
Regístrese para SANS Surge 2026 aquí.
Nota: Este artículo fue aportado por Frank Kim, miembro del Instituto SANS.
Source link
