Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

Google amplía herramientas para ayudar a los usuarios a eliminar datos confidenciales sobre ellos mismos de las búsquedas

El ransomware Reynolds incorpora controladores BYOVD que desactivan las herramientas de seguridad EDR

El ex director ejecutivo de GitHub recauda una ronda inicial récord de herramientas de desarrollo de 60 millones de dólares con una valoración de 300 millones de dólares

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Identidad»Google lanza ‘Private AI Computing’: procesamiento seguro de IA con privacidad a nivel del dispositivo
Identidad

Google lanza ‘Private AI Computing’: procesamiento seguro de IA con privacidad a nivel del dispositivo

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.comnoviembre 12, 2025No hay comentarios5 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

12 de noviembre de 2025Ravi LakshmananInteligencia artificial/cifrado

Google anunció el martes una nueva tecnología para mejorar la privacidad llamada «Private AI Compute» que procesa consultas de inteligencia artificial (IA) en una plataforma segura en la nube.

La compañía dijo que creó Private AI Compute para «maximizar la velocidad y la potencia del modelo de nube Gemini para experiencias de IA, al tiempo que garantiza la privacidad de sus datos personales y los hace inaccesibles para otros, ni siquiera para Google».

Private AI Compute se describe como un «espacio seguro y reforzado» para procesar datos confidenciales del usuario de una manera similar al procesamiento en el dispositivo, pero con capacidades de IA mejoradas. Aprovechando las unidades de procesamiento de tensor (TPU) Trillium y los enclaves de inteligencia de titanio (TIE), la empresa puede utilizar modelos de vanguardia sin sacrificar la seguridad y la privacidad.

En otras palabras, la infraestructura de privacidad está diseñada para aprovechar la velocidad computacional y el poder de procesamiento de la nube mientras se mantienen las garantías de seguridad y privacidad que vienen con el procesamiento en el dispositivo.

Las cargas de trabajo de CPU y TPU de Google (también conocidas como nodos confiables) dependen del entorno de ejecución confiable (TEE) de hardware basado en AMD, que cifra y aísla la memoria del host. El gigante tecnológico señaló que solo las cargas de trabajo autenticadas pueden ejecutarse en nodos confiables y que el acceso administrativo a las cargas de trabajo está bloqueado. Además, los nodos están protegidos contra posibles ataques de fuga de datos físicos.

Esta infraestructura también admite la certificación y el cifrado de igual a igual entre nodos confiables, lo que garantiza que los datos del usuario solo se descifren y procesen dentro de un entorno seguro y protegidos de la infraestructura más amplia de Google.

«Cada carga de trabajo solicita y verifica criptográficamente las credenciales de la otra carga de trabajo para garantizar la confianza mutua dentro de un entorno de ejecución protegido», explicó Google. «Las credenciales de carga de trabajo solo se aprovisionan si el certificado del nodo se valida exitosamente con un valor de referencia interno. La validación fallida impide que se establezca la conexión, lo que protege los datos del usuario de componentes que no son de confianza».

Servicio de retención DFIR

El flujo general del proceso funciona de la siguiente manera. El cliente del usuario establece una conexión cifrada con el protocolo de ruido con el servidor de aplicaciones para el usuario y establece una certificación bidireccional. El cliente también utiliza sesiones certificadas de cifrado de extremo a extremo de Oak para verificar la identidad del servidor y garantizar que el servidor sea genuino y no haya sido modificado.

Después de este paso, el servidor configura un canal cifrado de Seguridad de transporte de la capa de aplicación (ALTS) con otros servicios en el canal de inferencia escalable para comunicarse con el servidor modelo que se ejecuta en la plataforma TPU reforzada. Todo el sistema es «temporal por diseño». Esto significa que las entradas, la inferencia del modelo y los cálculos se descartan tan pronto como se completa la sesión del usuario, por lo que un atacante que obtenga acceso privilegiado al sistema no puede recuperar datos históricos.

Arquitectura informática privada de IA de Google

Google también promociona varias protecciones integradas en su sistema para mantener su seguridad e integridad y evitar modificaciones no autorizadas. Estos incluyen –

Minimizar el número de componentes y entidades en los que se debe confiar para garantizar la confidencialidad de los datos Uso de computación federada confidencial para recopilar análisis y agregar información Cifrado de comunicaciones cliente/servidor Autenticación binaria para garantizar que solo se ejecuten código firmado y autorizado y configuraciones verificadas en toda la cadena de suministro de software Aislamiento de datos de usuario comprometidos en máquinas virtuales (VM) Cifrado de memoria y unidades de administración de memoria de entrada/salida (IOMMU) Protege el sistema contra fugas físicas con protección Acceso Shell en una plataforma sin TPU Dirige todo el tráfico entrante al sistema mediante un relé ciego de IP operado por terceros, ofuscando el verdadero origen de la solicitud. Separa la autenticación y autorización del sistema de la inferencia mediante tokens anónimos.

NCC Group, que realizó una evaluación externa de la informática privada de IA entre abril y septiembre de 2025, anunció que pudo descubrir un canal lateral basado en temporización dentro de un componente de retransmisión cegadora de IP que se puede utilizar para «desenmascarar» a un usuario bajo ciertas condiciones. Sin embargo, debido al hecho de que la naturaleza multiusuario del sistema introduce «mucho ruido» y dificulta que los atacantes asocien consultas con usuarios específicos, Google ha determinado que el sistema presenta un riesgo bajo.

kit de construcción CIS

La compañía también dijo que ha identificado tres problemas en la implementación del mecanismo de autenticación que pueden provocar condiciones de denegación de servicio (DoS) y varios ataques de protocolo. Actualmente, Google está trabajando en mitigaciones para todos estos.

«Aunque todo el sistema se basa en hardware propietario y se centra en Borg Prime,… Google garantiza que limita el riesgo de que los datos del usuario queden expuestos a procesamientos no intencionados o a personas externas a menos que la organización en su conjunto decida lo contrario», dijo la compañía. «Los usuarios se beneficiarán de un alto nivel de protección contra personas internas maliciosas».

Este desarrollo refleja movimientos similares de Apple y Meta, que lanzaron Private Cloud Computing (PCC) y Private Processing para descargar consultas de IA desde dispositivos móviles de una manera que preserve la privacidad.

«La autenticación remota y el cifrado se utilizan para conectar dispositivos a un entorno de nube sellado y protegido por hardware, lo que permite a los modelos Gemini procesar datos de forma segura dentro de un espacio dedicado y protegido», dijo Jay Yagnik, vicepresidente de innovación e investigación de IA en Google. «Esto garantiza que los datos confidenciales procesados ​​por Private AI Compute solo sean accesibles para usted y nadie más, incluido Google».


Source link

#BlockchainIdentidad #Ciberseguridad #ÉticaDigital #IdentidadDigital #Privacidad #ProtecciónDeDatos
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleDónde la transición verde de Europa se hace realidad
Next Article La IA y la lucha contra el blanqueo de capitales
corp@blsindustriaytecnologia.com
  • Website

Related Posts

El ransomware Reynolds incorpora controladores BYOVD que desactivan las herramientas de seguridad EDR

febrero 10, 2026

Dentro del auge del parásito digital

febrero 10, 2026

ZAST.AI recauda 6 millones de dólares en Pre-A para escalar la seguridad del código impulsado por IA con «cero falsos positivos»

febrero 10, 2026
Add A Comment
Leave A Reply Cancel Reply

el último

Google amplía herramientas para ayudar a los usuarios a eliminar datos confidenciales sobre ellos mismos de las búsquedas

El ransomware Reynolds incorpora controladores BYOVD que desactivan las herramientas de seguridad EDR

El ex director ejecutivo de GitHub recauda una ronda inicial récord de herramientas de desarrollo de 60 millones de dólares con una valoración de 300 millones de dólares

Dentro del auge del parásito digital

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2026 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.