Cerrar menú
  • Inicio
  • Academia
  • Eventos
  • Tecnología financiera
  • Identidad
  • Internacional
  • Inventos
  • Startups
  • English
What's Hot

Sam Altman trae al Reino Unido una startup de verificación de identificación que hará pasar los ojos del mundo

El espacio de axioma se está preparando para su cuarta misión a la ISS

Cómo ver la nota clave WWDC 2025 de Apple

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Academia
  • Eventos
  • Tecnología financiera
  • Identidad
  • Internacional
  • Inventos
  • Startups
  • English
FySelf Noticias
Home » Cómo implementar IA de manera más segura a gran escala
Identidad

Cómo implementar IA de manera más segura a gran escala

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.commayo 27, 2025No hay comentarios9 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

Agentes de IA e identidad no humana

La inteligencia artificial está impulsando cambios significativos en la productividad corporativa, desde completar el código en el copiloto de GitHub hasta los chatbots minando la base del conocimiento interno para respuestas inmediatas. Cada nuevo agente debe autenticarse a otros servicios e inflar silenciosamente la población de identidad no humana (NHIS) en la nube de la empresa.

Esa población ya está dominando las empresas. Muchas compañías actualmente hacen malabarismos con al menos 45 identidades de máquina para todos los usuarios humanos. Las cuentas de servicio, los bots de CI/CD, los contenedores y los agentes de IA requieren secretos para conectarse y trabajar de forma segura con otros sistemas, más comúnmente en forma de claves API, tokens o certificados. El informe del estado de secretos de Gitguardian se extiende 2025 revela el costo de esta expansión. Han surgido más de 23.7 millones de secretos en GitHub público solo en 2024. Y en lugar de refinar la situación, los repositorios que usan copiloto hicieron fugas secretas posibles 40% a menudo.

Nhis no es una persona

A diferencia de las personas que inician sesión en el sistema, NHIS rara vez tiene una política que requiere rotación de credenciales, privilegios estrictamente alcanzados o la deprecación de cuentas no utilizadas. No controlados, tejen una red opaca de conexiones de alto riesgo que pueden explotarse incluso después de que los atacantes recuerden que esos secretos existen.

La adopción de IA, particularmente modelos de idiomas a gran escala y la generación recuperada (RAG), aumentó drásticamente la tasa y la cantidad de expansión que induce este riesgo.

Considere un chatbot de soporte interno con LLM. Cuando se le preguntó cómo conectarse a su entorno de desarrollo, el Bot puede obtener una página de confluencia con credenciales válidas. Los chatbots pueden revelar inconscientemente secretos a aquellos que hacen las preguntas correctas, y los registros pueden filtrar fácilmente esta información a aquellos que tienen fácil acceso a ella. Peor aún, en este escenario, LLM instruye al desarrollador que use esta credencial de texto sin formato. Los problemas de seguridad pueden acumularse rápidamente.

Pero la situación no es desesperada. De hecho, cuando el modelo de gobierno correcto se implementa en torno a la gestión de NHIS y los secretos, los desarrolladores pueden implementar la innovación y la implementación más rápido.

Cinco controles prácticos para reducir el riesgo de NHI relacionado con la IA

Las organizaciones que buscan controlar los riesgos de NHI impulsados ​​por la IA deben centrarse en estas cinco prácticas prácticas.

Auditoría y limpieza de origen de datos Centralizar la gestión de NHIS existente para evitar una fuga secreta de implementaciones LLM Limitaciones de seguridad de registro Acceso a datos de IA

Echemos un vistazo más de cerca a cada una de estas áreas.

Limpieza de auditoría y fuente de datos

El primer LLM se combinó solo a conjuntos de datos capacitados específicos, por lo que es una novedad con funcionalidad limitada. La ingeniería de generación registrada (RAG) cambió esto al permitir que LLM acceda a fuentes de datos adicionales según sea necesario. Desafortunadamente, si hay un secreto en estas fuentes, las identidades asociadas actualmente corren el riesgo de ser abusados.

Las fuentes de datos, incluidas las plataformas de gestión de proyectos, como JIRA y plataformas de comunicación, como Slack, y las bases de conocimiento como la confluencia no se construyeron con IA o secretos en mente. Si alguien agrega una tecla API de Plantext, no hay salvaguardia para advertir que esto es peligroso. Los chatbots se vuelven fáciles de entrar en un motor de apariencia secreto con las indicaciones correctas.

La única forma segura para que los LLM eviten la fuga de sus secretos internos es eliminar los secretos que existen, o al menos revocar el acceso que están diciendo. Las credenciales no válidas no toman riesgos inmediatos de los atacantes. Idealmente, podría eliminar estas instancias secretas por completo antes de que la IA lo obtenga. Afortunadamente, hay herramientas y plataformas como Gitguardian que pueden ayudar a reducir el dolor de este proceso tanto como sea posible.

Centralizar la gestión existente de NHIS

La cita «Si no puedes medirlo, no puedes mejorarlo» se debe en gran medida a Lord Kelvin. Esto es muy cierto para la gobernanza de identidad no humana. Hay pocas esperanzas de que se puedan aplicar reglas y ámbitos efectivos al nuevo NHI asociado con el agente IA sin almacenar todas las cuentas de servicio, bots, agentes y tuberías que actualmente tenemos.

Una cosa que todos estos tipos de identidades no humanas tienen en común es que todos tienen secretos. No importa cómo defina NHI, todos definimos el mecanismo de autenticación de la misma manera: el secreto. Concentrar el inventario a través de esta lente puede interrumpir el enfoque en el almacenamiento y la gestión adecuados de los secretos. Esto está lejos de ser una nueva preocupación.

Hay muchas herramientas que pueden hacer que esto se pueda lograr, como el manager de Hascorp Vault, Cybark o AWS Secrets. Una vez que todos son administrados y explicados de Centroy, puede pasar del mundo de calificaciones a largo plazo a lo que la política automatiza y aplica.

Previene la fuga secreta de las implementaciones de LLM

El servidor del Protocolo de contexto del modelo (MCP) es un nuevo estándar para la forma en que Agent AI accede a los servicios y fuentes de datos. Anteriormente, si desea configurar su sistema de IA para acceder a los recursos, debe conectarlo usted mismo y resolverlo a medida que avanza. MCP ha introducido un protocolo que permite a la IA conectarse con proveedores de servicios a través de interfaces estandarizadas. Esto simplifica las cosas y reduce las posibilidades de que los desarrolladores codifiquen sus credenciales para que la integración funcione.

En uno de los documentos más sorprendentes publicados por los investigadores de seguridad de Gitguardian, encontraron el 5.2% de todos los servidores MCP que se puede encontrar que contienen al menos un secreto codificado. Esto es más pronunciado que la incidencia del 4.6% de secretos expuestos observados en todos los repositorios públicos.

Al igual que cualquier otra tecnología que despliegue, una salvaguardia de 1 onza temprano en el ciclo de vida del desarrollo de software puede evitar un incidente de 1 libra más tarde. Atrapar los secretos codificados cuando todavía están en la rama de características significa que nunca se fusionarán y enviarán a la producción. Agregar detección secreta al flujo de trabajo de su desarrollador a través de Git Hooks o extensiones de editor de código significa que las credenciales de texto sin formato ni siquiera llegan al repositorio compartido.

Mejorar la seguridad de registro

LLMS es una caja negra que toma solicitudes y ofrece respuestas probabilísticas. Aunque no puede ajustar la vectorización subyacente, puede saber si la salida es la esperada. Los ingenieros de IA y los equipos de aprendizaje automático registran todo, desde las indicaciones iniciales, el contexto de adquisición y generaron respuestas para coordinar el sistema para mejorar los agentes de IA.

Agentes de IA e identidad no humana

Si alguno de los pasos registrados en el proceso tiene un secreto publicado, entonces probablemente haya varias copias del mismo secreto filtrado, ya sea en una herramienta o plataforma de terceros. La mayoría de los equipos almacenan registros en un cubo en la nube sin controles de seguridad ajustables.

La ruta más segura es agregar un paso de desinfección antes de que los registros se guarden o envíen a un tercero. Esto requiere un esfuerzo de ingeniería, pero nuevamente, herramientas como GGShield de Gitguardian están aquí para ayudar con escaneos secretos que se pueden llamar programáticamente de los scripts. Si el secreto se frota, el riesgo se reduce significativamente.

Limitar el acceso a datos de IA

¿Su LLM necesita acceder a su CRM? Esta es una pregunta complicada y es muy situacional. Si se trata de una herramienta de ventas interna que está bloqueada detrás de SSO, podría estar bien si puede buscar rápidamente sus notas para mejorar su entrega. Para los chatbots de servicio al cliente en la página principal de su sitio web, la respuesta es la empresa.

Se deben aplicar principios similares de acceso similar a la IA que implementa, de modo que debe seguir el principio de privilegio mínimo al establecer permisos. La tentación de dar a los agentes de IA acceso total a todo lo que se llama exceso de velocidad es excelente. Muy poco acceso invalidará el propósito del modelo RAG. Permitir demasiado acceso conducirá a incidentes de abuso y seguridad.

Aumenta la conciencia del desarrollador

No está en la lista que comenzamos, pero toda esta guía es inútil a menos que llegue a la persona adecuada. Las personas de primera línea necesitan orientación y barandas para ayudarlos a trabajar de manera más eficiente y segura. Espero que haya una solución tecnológica mágica para ofrecer aquí, pero la verdad es que para construir e implementar de manera segura la IA, los humanos necesitan ingresar a la misma página con los procesos y políticas correctas.

Si está en el lado de desarrollo del mundo, le recomendamos que comparta este artículo con su equipo de seguridad y obtenga sus ideas sobre cómo construir con seguridad la IA en su organización. Si es un experto en seguridad que lee esto, le recomiendo compartir esto con sus equipos de desarrolladores y DevOps para alentar la conversación de que AI está aquí.

Proteger la identidad de una máquina es igual a una implementación de IA más segura

La siguiente etapa de adopción de IA pertenece a organizaciones que tratan con identidades no humanas con el mismo rigor y cuidado que los usuarios humanos. El monitoreo continuo, la gestión del ciclo de vida y la robusta gobernanza secreta deben convertirse en procedimientos operativos estándar. Ahora, al construir una base segura, las empresas pueden expandir con confianza sus iniciativas de IA y desbloquear la promesa completa de la automatización inteligente sin sacrificar la seguridad.

¿Encontraste este artículo interesante? Este artículo es una donación de uno de nuestros preciosos socios. Síganos en Twitter y LinkedIn para leer contenido exclusivo que publique.

Source link

Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleObservación de la tierra en acción: impulsa la innovación en toda la industria
Next Article Según WSJ, Salesforce está configurado para adquirir Informatica en un acuerdo de $ 8 mil millones
corp@blsindustriaytecnologia.com
  • Website

Related Posts

Las nuevas operaciones de malware de la cadena de suministro alcanzan los ecosistemas de NPM y PYPI, apuntando a millones de personas en todo el mundo

junio 8, 2025

Las extensiones de navegador malicioso infectarán a 722 usuarios en América Latina desde principios de 2025

junio 8, 2025

La nueva campaña Atomic MacOS Stealer se dirige a los usuarios de Apple al explotar ClickFix

junio 6, 2025
Add A Comment
Leave A Reply Cancel Reply

el último

Sam Altman trae al Reino Unido una startup de verificación de identificación que hará pasar los ojos del mundo

El espacio de axioma se está preparando para su cuarta misión a la ISS

Cómo ver la nota clave WWDC 2025 de Apple

En WWDC 25, la IA debe compensar con los desarrolladores después de la escasez de IA y las demandas

Publicaciones de tendencia

«Lo vemos casi en todas partes» – ¿Covid está de regreso?

junio 6, 2025

George P. Johnson fortalece la alineación global con los nombramientos de liderazgo estratégico

junio 6, 2025

Las 5 principales historias de la semana de la semana

junio 6, 2025

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

Las 10 principales nuevas empresas y noticias de financiación tecnológica para los extremos semanales el 6 de junio de 2025

El Auge de las Salidas a Bolsa Cripto Comienza: Gracias a la Espectacular OPI de Circle

Pedido OpenAI para mantener todos los registros de chatgpt, incluidos chats temporales eliminados, solicitudes de API

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2025 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.