
La dura verdad sobre la adopción de la IA
El informe del estado de negocios de MITS reveló que el 40% de las organizaciones compran suscripciones de Enterprise LLM, mientras que más del 90% de los empleados usan activamente herramientas de IA en sus operaciones diarias. Del mismo modo, un estudio de seguridad armónica encontró que el 45.4% de las interacciones AI confidenciales provienen de cuentas de correo electrónico individuales.
Esto, por supuesto, ha planteado muchas preocupaciones sobre la creciente «economía de IA de sombra». Pero, ¿qué significa eso y cómo pueden los equipos de gobernanza de seguridad y AI superar estos desafíos?
Póngase en contacto con la seguridad armónica para obtener más información sobre los descubrimientos de IA Shadow y hacer cumplir nuestra política de uso de IA.
El uso de la IA es impulsado por empleados, no comités
Las empresas usan mal el uso de la IA como un de arriba hacia abajo por líderes empresariales visionarios. Sabemos que eso está mal ahora. La mayoría de las veces, los empleados promueven la adopción de abajo hacia arriba sin supervisión, pero el marco de gobernanza todavía se define de arriba hacia abajo. Incluso si tiene una herramienta certificada empresarial, a menudo los evita a favor de otras herramientas nuevas que están bien ubicadas para aumentar la productividad.
A menos que los líderes de seguridad entiendan esta realidad, revelen y controlen esta actividad, ponen sus negocios en riesgo grave.
Por qué fallan los bloques
Muchas organizaciones han tratado de abordar este desafío con una estrategia de «bloquear y esperar». Este enfoque limita el acceso a plataformas de inteligencia artificial bien conocidas y la adopción de ralentización.
La realidad es diferente.
La IA ya no es una categoría que se puede cercar fácilmente. Desde aplicaciones de productividad como Canva y Grammarly hasta herramientas de colaboración con asistentes integrados, la IA está entretejida en casi todas las aplicaciones SaaS. Bloquear una herramienta a menudo lleva a los empleados a otra herramienta a través de cuentas personales o dispositivos de inicio, cegando a la empresa al uso real.
Por supuesto, esto no es cierto para todas las empresas. Los equipos de seguridad y gobernanza de IA de avance están tratando activamente de comprender qué están utilizando los empleados y qué casos de uso están utilizando. Están tratando de entender lo que está sucediendo y cómo ayudar a los empleados a usar las herramientas de la manera más segura posible.
Descubrimiento de Shadow AI como instrucción de gobierno
El inventario de activos AI es un requisito regulatorio y no es excelente. Los marcos como la Ley de AI de la UE requieren explícitamente que las organizaciones mantengan la visibilidad de los sistemas de IA en uso, ya que están agotados sin descubrimiento y no hay gobierno sin existencias. Shadow AI es un componente clave de esto.
Varias herramientas de IA plantean diferentes riesgos. Algunos entrenan en silencio sus propios datos, mientras que otros almacenan información confidencial a jurisdicciones como China y crean exposiciones a la propiedad intelectual. Para cumplir con las regulaciones y proteger su negocio, los líderes de seguridad deben aclarar el alcance completo del uso de la IA en las primeras cuentas personales de la empresa aprobada y no autorizadas.
Armadas con esta visibilidad, las organizaciones pueden separar casos de uso de bajo riesgo de datos confidenciales, flujos de trabajo regulados o aquellos con exposición geográfica. Solo entonces podemos implementar políticas de gobierno significativas que protejan nuestros datos y permitan que nuestros empleados sean productivos.
Cómo puede ayudar la seguridad armónica
La seguridad armónica permite este enfoque al proporcionar control de inteligencia para que los empleados usen la IA. Esto incluye el monitoreo continuo de la IA de la sombra con evaluaciones de riesgos estándar para cada aplicación.
En lugar de confiar en listas de bloques estáticos, Harmonic proporciona visibilidad para el uso autorizado y no autorizado, aplicando políticas inteligentes basadas en la sensibilidad de los datos, los roles de los empleados y la naturaleza de la herramienta.
Esto significa que, si bien se puede permitir que los equipos de marketing ingresen cierta información en ciertas herramientas para la creación de contenido, los equipos de recursos humanos o los equipos legales están restringidos del uso de cuentas personales de información confidencial de los empleados. Esto es compatible con un modelo que permite a los empleados identificar y clasificar la información cuando comparten datos. Esto permite a los equipos hacer cumplir las políticas de IA con la precisión requerida.

El camino por delante
Shadai se queda aquí. A medida que más aplicaciones SaaS incorporen IA, el uso no administrado solo se expandirá. Las organizaciones que no pueden lidiar con los descubrimientos hoy se encontrarán incapaces de gobernar mañana.
El camino para avanzar es dominar de manera inteligente en lugar de bloquearlo. Shadow AI Discovery le da a CISOS la visibilidad que necesitan para proteger los datos confidenciales, cumplir con los requisitos reglamentarios y permitir a los empleados aprovechar los beneficios de productividad de manera segura de la IA.
La seguridad armónica ya está ayudando a las empresas a dar el siguiente paso con el gobierno de IA.
Para CISOS, ya no se trata de si los empleados están usando Shadow AI … es si puedes verlo.
Source link
