Una pregunta continúa en el camino a medida que los consumidores, las empresas y los gobiernos acuden a la promesa de herramientas de IA baratas, rápidas y aparentemente mágicas. ¿Cómo puedo mantener mis datos privados?
Los gigantes tecnológicos como Openai, Anthrope, XAI y Google recogen en silencio y mantienen los datos de los usuarios en silencio y manteniéndolo seguro, incluso en el contexto de una empresa que asume que la información es limitada. Para industrias y empresas altamente reguladas construidas en la frontera, ese área gris podría romper los contratos. El miedo a dónde van los datos, quién pueden verlos y cómo se utilizará ha ralentizado la adopción de IA en sectores como la atención médica, las finanzas y el gobierno.
Ingrese su Startup Confident Secride con sede en San Francisco. Esto tiene como objetivo ser una «señal de IA». El producto de la compañía, Confsec, es una herramienta de cifrado de extremo a extremo que envuelve los modelos básicos, asegurando que las indicaciones y metadatos no se puedan almacenar, ver o usar en la capacitación de IA, incluso si es un proveedor de modelos o un tercero.
«Si ha renunciado a sus datos a otra persona, básicamente reduce su privacidad», dijo a TechCrunch Jonathan Mortensen, fundador y CEO de Confident Security. «Y el objetivo de nuestros productos es eliminar esa compensación».
Stealth Security, que tiene $ 4.2 millones en fondos iniciales de Decibel, South Park Commons, Ex ante y Swyx, ha salido del sigilo, y TechCrunch ha aprendido exclusivamente. La compañía quiere actuar como un proveedor intermediario entre los proveedores de IA y sus clientes, incluidos los hiperscalers, los gobiernos y las empresas.
Mortensen dijo que incluso las compañías de IA podrían ver el valor de proporcionar a los clientes empresariales herramientas de seguridad seguras como una forma de desbloquear su mercado. Agrega que AFFSEC también es adecuado para los nuevos navegadores de IA que afectarán a los mercados como el Comet recientemente lanzado de Perplexity, asegurando que sus datos confidenciales no se almacenen en lugares accesibles para empresas o malos actores, o que las indicaciones relacionadas con el trabajo no se usen para «capacitar a AI para hacer el trabajo».
Confsec se modela después de la arquitectura privada de computación en la nube (PCC) de Apple. Mortensen dice que ejecutar ciertas tareas de IA de forma segura en la nube es «10 veces mejor que cualquier otra cosa para garantizar que Apple no pueda ver sus datos».
Eventos de TechCrunch
San Francisco
|
27-29 de octubre de 2025
Al igual que el PCC de Apple, el sistema de seguridad confiado funciona al anonimizar los datos primero al encriptar y enrutar servicios como CloudFlare y Fastly, por lo que el servidor no muestra la fuente o el contenido original. A continuación, utilizamos el cifrado avanzado, que permite el descifrado solo en condiciones estrictas.
«Por lo tanto, puede decir que solo se le permite descifrar esto si no registra los datos, y no lo usará para capacitar y no dejará que nadie lo vea», dijo Mortensen.
Finalmente, el software que ejecuta la inferencia de IA está disponible públicamente y abre reseñas para que los expertos puedan ver su garantía.
«Al confiar en el futuro de la IA se basa en la confianza incorporada en la infraestructura misma, la seguridad segura está por delante de la curva», dijo la socia de Decibel, Jess Leo, en un comunicado. «Sin este tipo de solución, muchas compañías no pueden avanzar con la IA».
Todavía es temprano para la compañía hace un año, pero Mortensen dijo que Confsec fue probado y auditado externamente y listo para la producción. El equipo está discutiendo con bancos, navegadores y motores de búsqueda, entre otros clientes potenciales, para agregar confsec a su pila de infraestructura.
«Traemos IA y traemos privacidad», dijo Mortensen.
Source link
