Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

Anthropic crea un mercado de prueba para el comercio de agente a agente

El CEO de OpenAI se disculpa con la comunidad de Tumbler Ridge

Por qué Cohere se fusiona con Aleph Alpha

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Identidad»La observabilidad continua como motor de decisiones.
Identidad

La observabilidad continua como motor de decisiones.

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.comabril 24, 2026No hay comentarios6 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

La brecha de autoridad de los agentes de IA: de la no gobernanza a la delegación

Como comentamos en un artículo anterior, los agentes de IA están exponiendo brechas estructurales en la seguridad empresarial, pero el problema a menudo se ve de manera muy limitada.

El problema no es simplemente que los agentes sean sujetos nuevos. Eso significa que los agentes son actores delegados. No emergen con autoridad independiente. Son activados, lanzados, aprovisionados o autorizados por identidades empresariales existentes (usuarios humanos, identidades de máquinas, bots, cuentas de servicio y otros actores no humanos).

Como tal, Agent-AI es fundamentalmente diferente de los humanos y el software, pero sigue siendo inseparable de ambos.

Es por eso que la brecha de autoridad de los agentes de IA es en realidad una brecha de delegación. Las empresas buscan gestionar a los actores emergentes sin gestionar primero las identidades a las que delegan autoridad.

La IAM tradicional se creó para responder a la pregunta más específica de quién tiene acceso. Pero una vez que se despliegan los agentes de IA, la verdadera pregunta es: ¿qué autoridad se delega, quién, en qué términos, con qué fines y en qué medida?

Lo primero es lo primero: gestionar la cadena de delegación antes que la IA del agente

El punto importante es el orden. Las empresas no pueden gestionar de forma segura el Agent-AI sin gestionar primero a los actores tradicionales que actúan como delegados siempre que sea posible.

La identidad humana y la identidad de la máquina tradicional ya están fragmentadas en aplicaciones, API, credenciales integradas, cuentas de servicio no administradas y lógica de identidad específica de la aplicación. Ésta es la identidad de la materia oscura, que describe Orchid. Es decir, autoridades que existen, operan y a menudo acumulan riesgos fuera del alcance de la IAM administrada. Si esa materia oscura permanece sin ser observada, los agentes heredarán un modelo de autoridad que ya está roto. Los resultados son predecibles. Los agentes se convierten en amplificadores eficaces de acceso oculto, privilegios ocultos y rutas de ejecución ocultas.

Por lo tanto, el puente para implementar Agent-AI de forma segura no es iniciar el agente solo. En primer lugar, al reducir la materia oscura de identidad en los estamentos de actores tradicionales, ya no se puede delegar ni abusar de ella con fines de eficiencia. Esto significa descubrir las identidades de todos los humanos y máquinas tradicionales en su entorno de aplicaciones, comprender cómo se autentican, dónde están integradas las credenciales, cómo se ejecutan realmente los flujos de trabajo y dónde se encuentran los privilegios no administrados. El modelo de observabilidad continua de Orchid es una base esencial para las implementaciones seguras de Agent AI porque establece una línea de base validada del comportamiento de identidad real en entornos administrados y no administrados, en lugar de depender de suposiciones de políticas estáticas imperfectas.

De la observabilidad a la autoridad: gobernanza dinámica para la IA de los agentes

Una vez que se observa, analiza y optimiza la capa de actor tradicional, su salida se convierte en la entrada a la capa de Autoridad de Delegación de Agente-IA en tiempo real. Aquí es donde el modelo de Orchid se vuelve más poderoso que el IAM tradicional. Esa telemetría es más que solo visibilidad y conocimiento. Esto se convierte en una fuente continua para un motor de permisos que evalúa el perfil de permisos del delegado, el contexto de la aplicación de destino, la intención detrás de la acción solicitada y el alcance de la ejecución. En otras palabras, un agente no debería regirse únicamente por su propia autoridad nominal. Esto debe ser gestionado continuamente por la actitud y la intención del actor que delega la autoridad, así como por el contexto de lo que el agente está tratando de hacer.

Esto crea un modelo de control más poderoso. Piénsalo. Los delegados humanos con postura débil, comportamiento riesgoso o acceso encubierto excesivo no deben recibir los mismos privilegios de Agente-IA que los delegados estrictamente controlados que operan en flujos de trabajo restringidos. De manera similar, no se debe permitir que una máquina o cuenta de servicio con permisos amplios pero poco comprendidos active un agente con un potencial de acción posterior ilimitado.

El papel de Orchid en este modelo es evaluar continuamente al delegador, al actor delegado y la ruta de la aplicación entre ellos y aplicar los permisos en consecuencia. Eso es lo que convierte la observabilidad en gobernanza.

Esta es también la razón por la que los estados finales no solo mejoran la auditoría individual de los actores de IA humanos, máquinas y agentes. Control de delegación secuencial dinámica. Orchid puede asignar cada ID de agente a las aplicaciones con las que contacta el agente, los flujos de trabajo que puede invocar, los patrones de intención que exhibe y el rango de acciones previstas. Luego, utilizando la fuente de observabilidad en vivo, puede decidir en tiempo real si permite que ese agente opere, solo permite recomendaciones, lo limita a un conjunto limitado de herramientas o lo detiene por completo. Ése es el significado último de cerrar la brecha de autoridad. No se trata sólo de saber a qué tiene acceso el agente, sino de decidir continuamente qué puede decidir y hacer el agente a la velocidad de la máquina.

Recordatorio de cierre

Los agentes de IA son más que un simple tipo de identidad. Estos son tipos de identidad delegados. Ese poder proviene de actores corporativos tradicionales como humanos, bots, cuentas de servicio e identidades de máquinas. Entonces, la cuestión del gobierno del agente y de la IA no comienza con el agente. Comienza con el delegado. Si las empresas no pueden observar y controlar las identidades de los humanos y las máquinas tradicionales que desencadenan las acciones de los agentes, tampoco pueden gestionarlos de forma segura. El modelo de Orchid hace explícito ese orden. Primero, reduzca la materia oscura de identidad en todo el conjunto de actores tradicionales y luego utilice la observación, el análisis y la auditoría continuos de estos delegados como entrada en vivo a una capa de Autoridad de Delegación de Agente-IA en tiempo real. En este modelo, los agentes están controlados no sólo por su autoridad nominal, sino también por la actitud, intención, contexto y alcance de los actores que delegan autoridad en el agente. Este es el puente que falta entre la IAM tradicional y las implementaciones seguras de Agent-AI.

¿Fue interesante este artículo? Este artículo es una contribución de uno de nuestros valiosos socios. Síguenos en Google News, Twitter y LinkedIn para leer más contenido exclusivo nuestro.

Source link

#BlockchainIdentidad #Ciberseguridad #ÉticaDigital #IdentidadDigital #Privacidad #ProtecciónDeDatos
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous Article26 aplicaciones de FakeWallet dirigidas a frases criptográficas encontradas en la App Store de Apple
Next Article En otro gran avance para los chips de IA, Meta firma un acuerdo para millones de CPU de IA de Amazon
corp@blsindustriaytecnologia.com
  • Website

Related Posts

Investigadores descubren malware ‘fast16’ anterior a Stuxnet dirigido a software de ingeniería

abril 25, 2026

CISA agrega cuatro fallas explotadas a KEV y fija fecha límite federal para mayo de 2026

abril 25, 2026

La puerta trasera FIRESTARTER afecta a los dispositivos federales Cisco Firepower y sobrevive al parche de seguridad

abril 24, 2026
Add A Comment
Leave A Reply Cancel Reply

el último

Anthropic crea un mercado de prueba para el comercio de agente a agente

El CEO de OpenAI se disculpa con la comunidad de Tumbler Ridge

Por qué Cohere se fusiona con Aleph Alpha

Por qué Tokio será la ciudad tecnológica más importante en 2026

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2026 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.