Los usuarios de ChatGPT pueden querer pensar dos veces antes de recurrir a las aplicaciones de IA para recibir tratamiento u otros tipos de apoyo emocional. Según el CEO de OpenAI, Sam Altman, la industria de la IA todavía no entiende cómo proteger la privacidad del usuario cuando se trata de estas conversaciones más sensibles.
Los ejecutivos hicieron estos comentarios sobre el reciente episodio de Theo Von, Theo Von.
En respuesta a las preguntas sobre cómo funciona la IA en el sistema legal actual, Altman dijo que uno de los problemas de que no tiene un marco legal o de política para la IA, aún es que sus conversaciones de usuarios carecen de confidencialidad legal.
«La gente habla de la mierda más personal en la vida de Chatgut», dijo Altman. «La gente lo usa, especialmente los jóvenes lo usan, como terapeuta, entrenador de vida. Tiene estos problemas de relación. Y ahora, si habla con un terapeuta, un abogado o un médico sobre esos problemas, entonces existe un privilegio legal.
Esto podría generar preocupaciones de privacidad para los usuarios en caso de litigios, ya que OpenAI está legalmente obligado a generar conversaciones de hoy, agregó Altman.
«Creo que es un desastre. Creo que deberíamos tener el mismo concepto de privacidad para las conversaciones con IA que somos terapeutas, etc.
La compañía entiende que la falta de privacidad puede convertirse en un bloqueador para el reclutamiento de usuarios más amplio. Además de las solicitudes de IA para tantos datos en línea durante los períodos de capacitación, también se nos pide que creemos datos de los chats de usuarios en varios contextos legales. Ya, Operai está luchando contra las órdenes de la corte en una demanda con el New York Times. Esto requiere almacenar chats de cientos de millones de usuarios de chat en todo el mundo, excepto los clientes de ChatGPT Enterprise.
Eventos de TechCrunch
San Francisco
|
27-29 de octubre de 2025
Operai dijo en un comunicado en su sitio web que calificó la orden de «extralimitación». Si el tribunal puede anular la propia decisión de OpenAI sobre la privacidad de los datos, podría abrir la compañía para solicitar más descubrimientos legales o fines de aplicación de la ley. Las empresas de alta tecnología de hoy son convocadas regularmente para que los datos del usuario ayuden con el enjuiciamiento penal. Sin embargo, recientemente ha habido preocupaciones adicionales sobre los datos digitales, ya que la ley ha comenzado a restringir el acceso a libertades previamente establecidas, como los derechos de las mujeres para elegir.
Por ejemplo, la Corte Suprema es Roev. Cuando revocó a Wade, los clientes comenzaron a cambiar a más aplicaciones de seguimiento de servicio privado o Apple Health.
Altman también le preguntó al presentador de podcast sobre su uso de ChatGPT, teniendo en cuenta que le dijo que no hablaba mucho con el chatbot de IA debido a sus preocupaciones de privacidad.
«Creo que eso tiene sentido … Realmente quiero que realmente quieras claridad de privacidad antes de usar mucho, como la claridad legal», dijo Altman.
Source link
