Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

Rivian ofrece a RJ Scaringe un nuevo paquete salarial por valor de hasta 5.000 millones de dólares

Siete familias más están demandando a OpenAI por el papel de ChatGPT en el suicidio y los delirios

La aplicación de compras y listas de deseos GoWish tiene su año más importante hasta el momento

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Identidad»Proteger la IA para sacar provecho de ella
Identidad

Proteger la IA para sacar provecho de ella

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.comoctubre 21, 2025No hay comentarios7 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

La inteligencia artificial (IA) es muy prometedora para mejorar las ciberdefensas y facilitar la vida del personal de seguridad. Esto ayuda a los equipos a eliminar la fatiga por alertas, identificar patrones más rápido y alcanzar niveles de escala que los analistas humanos por sí solos no pueden igualar. Pero hacer realidad ese potencial depende de proteger los sistemas que lo hacen posible.

Todas las organizaciones que experimentan con IA en sus operaciones de seguridad están ampliando su superficie de ataque, ya sea conscientemente o no. Sin una gobernanza clara, una gestión de identidad sólida y visibilidad de cómo la IA toma decisiones, incluso las implementaciones bien intencionadas pueden generar riesgos más rápido de lo que pueden mitigarse. Para beneficiarse verdaderamente de la IA, los defensores deben abordar su protección con el mismo rigor que aplican a otros sistemas críticos. Esto significa establecer confianza en los datos que provienen del aprendizaje, establecer responsabilidad por las acciones que realizan los datos y monitorear los resultados que producen. Si se protege adecuadamente, la IA puede aumentar, en lugar de reemplazar, las capacidades humanas, permitiendo a los profesionales trabajar de manera más inteligente, responder más rápido y defenderse de manera más efectiva.

Establecer confianza en los sistemas de IA Agentic

A medida que las organizaciones comienzan a integrar la IA en sus flujos de trabajo de defensa, la seguridad de la identidad se convierte en la base de la confianza. Cada modelo, script o agente autónomo que se ejecuta en producción representa una nueva identidad que puede acceder a datos, emitir comandos e influir en los resultados de la defensa. Si estas identidades no se gestionan adecuadamente, las herramientas destinadas a aumentar la seguridad pueden convertirse silenciosamente en una fuente de riesgo.

La llegada de los sistemas Agentic AI hace que esto sea especialmente importante. Estos sistemas hacen más que simplemente analizar. Pueden actuar sin intervención humana. Clasifique alertas, enriquezca el contexto o active manuales de respuesta bajo la autoridad delegada de operadores humanos. Cada acción es efectivamente una transacción de confianza. Esa confianza debe estar vinculada a la identidad, autenticada mediante políticas y auditable de un extremo a otro.

Los mismos principios que protegen a las personas y los servicios deberían aplicarse a los agentes de IA.

Credenciales con alcance y privilegios mínimos para garantizar que cada modelo o agente tenga acceso solo a los datos y la funcionalidad necesarios para su tarea. La autenticación sólida y la rotación de claves evitan la suplantación de identidad y la fuga de credenciales. Los registros de auditoría y procedencia de la actividad le permiten rastrear, verificar y, opcionalmente, revertir todas las acciones iniciadas por la IA. La segmentación y el aislamiento impiden el acceso entre agentes, lo que garantiza que un proceso comprometido no pueda afectar a otros procesos.

En la práctica, esto significa tratar todos los sistemas de IA de los agentes como identidades de primera clase dentro del marco de IAM. Al igual que los usuarios y las cuentas de servicio, cada uno requiere un propietario, una política de ciclo de vida y un alcance de monitoreo definidos. Las capacidades a menudo cambian más rápido de lo diseñado, por lo que los equipos de defensa deben validar continuamente de qué son capaces los agentes, no solo lo que pretenden. Una vez que se establece una base de identidad, los defensores pueden centrar su atención en la seguridad más amplia del sistema.

Proteger la IA: mejores prácticas para el éxito

Proteger la IA comienza con proteger los sistemas que la hacen posible: los modelos, los canales de datos y las integraciones que se integran en las operaciones de seguridad del día a día. sin embargo

Para proteger las redes y los puntos finales, los sistemas de IA deben tratarse como una infraestructura de misión crítica que requiere una defensa continua y en capas.

El SANS Secure AI Blueprint describe una vía de protección de la IA que proporciona un punto de partida claro. Basado en las Pautas de seguridad de IA crítica de SANS, este plan define seis dominios de control que se traducen directamente en la práctica.

Control de acceso: aplique privilegios mínimos y una autenticación sólida para todos los modelos, conjuntos de datos y API. Registramos y revisamos continuamente el acceso para evitar el uso no autorizado. Control de datos: valide, desinfecte y clasifique todos los datos utilizados para entrenamiento, aumento o inferencia. El almacenamiento seguro y el seguimiento del linaje reducen el riesgo de envenenamiento del modelo y fuga de datos. Estrategia de implementación: refuerce su proceso y su entorno de IA mediante sandboxing, activación de CI/CD y red teaming antes del lanzamiento. Trate las implementaciones como eventos controlados y auditables en lugar de experimentos. Seguridad de inferencia: proteja sus modelos de inyecciones solicitadas y uso indebido aplicando validación de entrada/salida, barreras de seguridad y rutas de escalada para acciones de alto impacto. Monitoreo: observe continuamente el comportamiento del modelo y los resultados en busca de derivas, anomalías y signos de compromiso. La telemetría eficaz permite a los defensores detectar operaciones antes de que se propaguen. Seguridad del modelo: verifique las versiones, las firmas y la integridad del modelo durante todo el ciclo de vida para garantizar la confiabilidad y evitar intercambios y reentrenamiento no autorizados.

Estos controles están directamente alineados con el marco de gestión de riesgos de IA del NIST y el OWASP Top 10 para LLM. Estos resaltan las vulnerabilidades más comunes y críticas en los sistemas de IA, desde la inyección rápida y la integración insegura de complementos hasta el envenenamiento de modelos y la fuga de datos. La aplicación de mitigaciones de los marcos dentro de estos seis dominios puede traducir la orientación en defensas operativas. Con estas bases establecidas, su equipo puede centrarse en utilizar la IA de manera responsable sabiendo cuándo confiar en la automatización y cuándo mantener a los humanos involucrados.

Equilibra la expansión y la automatización

Los sistemas de inteligencia artificial pueden ayudar a los profesionales humanos, como los pasantes que nunca duermen. Sin embargo, es importante que los equipos de seguridad diferencien entre qué automatizar y qué reforzar. Algunas tareas se benefician de la automatización total, especialmente aquellas que son reproducibles, medibles y tienen bajo riesgo en caso de errores. Sin embargo, algunos requieren supervisión humana directa porque el contexto, la intuición o la ética son más importantes que la velocidad.

El refuerzo de amenazas, el análisis de registros y la deduplicación de alertas son candidatos principales para la automatización. Se trata de procesos basados ​​en patrones y que utilizan muchos datos y que favorecen la coherencia sobre la creatividad. Por el contrario, las decisiones sobre el alcance, la atribución y la respuesta de los incidentes se basan en un contexto que la IA no puede comprender completamente. Aquí es donde la IA debe ayudar descubriendo métricas, sugiriendo próximos pasos y resumiendo los hallazgos, mientras los profesionales conservan la autoridad para tomar decisiones.

Encontrar ese equilibrio requiere madurez en el diseño del proceso. Los equipos de seguridad deben categorizar los flujos de trabajo según el margen de error y el costo de las fallas de automatización. Si el riesgo de falsos positivos o de matices faltantes es alto, mantenga a los humanos informados. Si puede medir objetivamente la precisión, deje que la IA acelere su trabajo.

¡Únase a nosotros en SANS Surge 2026!

Profundizaremos en este tema en nuestra conferencia magistral en SANS Surge 2026 (del 23 al 28 de febrero de 2026), explorando cómo los equipos de seguridad pueden garantizar que sus sistemas de inteligencia artificial puedan confiar en ellos de manera segura. Si su organización está avanzando rápidamente en la adopción de la IA, este evento puede ayudarle a realizar una transición más segura. Únase a nosotros para conectarse con pares, aprender de expertos y ver cómo es realmente la IA segura.

Regístrese para SANS Surge 2026 aquí.

Nota: Este artículo fue aportado por Frank Kim, miembro del Instituto SANS.

¿Fue interesante este artículo? Este artículo es una contribución de uno de nuestros valiosos socios. Síguenos en Google News, Twitter y LinkedIn para leer más contenido exclusivo nuestro.

Source link

#BlockchainIdentidad #Ciberseguridad #ÉticaDigital #IdentidadDigital #Privacidad #ProtecciónDeDatos
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleSpiro recauda 100 millones de dólares, la mayor inversión jamás realizada en movilidad eléctrica africana
Next Article Acelere la innovación material con IA
corp@blsindustriaytecnologia.com
  • Website

Related Posts

La falla de Samsung sin hacer clic se aprovecha para implementar software espía LANDFALL para Android a través de WhatsApp

noviembre 7, 2025

Desde Log4j hasta IIS, los piratas informáticos chinos convierten errores heredados en herramientas de espionaje global

noviembre 7, 2025

La bomba lógica oculta en el paquete NuGet cargado de malware explotará varios años después de la instalación

noviembre 7, 2025
Add A Comment
Leave A Reply Cancel Reply

el último

Rivian ofrece a RJ Scaringe un nuevo paquete salarial por valor de hasta 5.000 millones de dólares

Siete familias más están demandando a OpenAI por el papel de ChatGPT en el suicidio y los delirios

La aplicación de compras y listas de deseos GoWish tiene su año más importante hasta el momento

Probé la correa cruzada de Apple. Es cómodo, pero si le quitas la correa, queda de mal gusto.

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2025 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.