La humanidad está haciendo cambios importantes en la forma en que se procesan los datos del usuario, por lo que todos los usuarios de Claude deberán decidir antes del 28 de septiembre si desean usarlos para capacitar a sus modelos de IA. Cuando se le preguntó qué provocó el movimiento, la compañía nos llevó a una publicación de blog sobre cambios en las políticas, pero formamos algunas de nuestras propias teorías.
Pero primero, lo que está cambiando: anteriormente, la humanidad no usaba datos de chat de consumo para capacitación en modelos. Actualmente, la compañía quiere capacitar a los sistemas de IA en conversaciones de usuarios y sesiones de codificación, diciendo que la retención de datos se ha extendido a cinco años para aquellos que no optan por no participar.
Es una actualización masiva. Anteriormente, a los usuarios de productos de consumo humano se les dijo que las indicaciones y los resultados de la conversación se eliminaron automáticamente del backend humano dentro de los 30 días «a menos que una política o una política se mantenga más larga según sea necesario», o que la entrada y la salida de los usuarios pueden reducirse por hasta dos años, si esa entrada a veces se reduce por hasta dos años.
Consumer significa que la nueva política se aplicará a los usuarios de Claude Free, Pro y Max, incluidos aquellos que usan el código Claude. Los clientes comerciales que utilizan Claude Gov, Claude de Work, Claude for Education o API Access no se verán afectados.
Entonces, ¿por qué está sucediendo esto? Esa publicación en la actualización establece que los marcos humanos muestran cambios en torno a las opciones de usuarios y no optar por no participar los convierte en un sistema que mejora la seguridad de sus modelos, detecta el contenido dañino con mayor precisión y es menos probable que marca conversaciones nocivas. Los usuarios dicen: «Ayudamos a los futuros modelos de Claude a mejorar con habilidades como la codificación, el análisis, la inferencia y más, y en última instancia conducen a mejores modelos para todos los usuarios».
En resumen, ayúdanos a ayudarte. Pero la verdad completa es probablemente un poco desinteresada.
Al igual que todas las otras compañías de modelado de idiomas grandes, la humanidad necesita más datos de los que necesita para tener sentimientos confusos sobre las marcas. La capacitación de modelos de IA requiere una gran cantidad de datos de conversación de alta calidad, y acceder a millones de interacciones de Claude debería proporcionar con precisión el tipo de contenido del mundo real que puede mejorar el posicionamiento competitivo de la humanidad contra rivales como OpenAI y Google.
Eventos de TechCrunch
San Francisco
|
27-29 de octubre de 2025
Más allá de las presiones competitivas del desarrollo de la IA, este cambio parecerá reflejar un cambio más amplio de la industria en la política de datos a medida que enfrenta la humanidad y compañías como OpenAI sobre las prácticas de retención de datos. Openai, por ejemplo, está luchando actualmente en una orden judicial que obliga a todas las conversaciones de chatgpt de consumidores a mantenerse indefinidamente, incluidos los chats eliminados, debido a las demandas presentadas por el New York Times y otros editores.
En junio, el COO de OpenAi Brad Lightcap lo llamó una «demanda defendible e innecesaria» de «un conflicto fundamental con el compromiso de privacidad con los usuarios». Si bien las órdenes judiciales afectan a los usuarios de ChatGPT gratuitos, plus, profesionales y del equipo, los clientes con cero acuerdos de retención de datos aún están protegidos.
Lo sorprendente es la cantidad de confusión que todas estas políticas de uso cambiantes están creando para los usuarios, y muchos de ellos siguen siendo inolvidables.
Para ser justos, todo se mueve rápidamente, por lo que a medida que cambia la tecnología, nuestra política de privacidad cambiará. Sin embargo, muchos de estos cambios son bastante drásticos y se han mencionado solo brevemente en otras noticias corporativas. (No pensaría que los cambios de política del martes para los usuarios humanos son una gran noticia basada en dónde la compañía colocó esta actualización en su página de prensa).

Sin embargo, muchos usuarios no son conscientes de que las pautas acordadas se han cambiado, ya que el diseño realmente lo garantiza. La mayoría de los usuarios de ChatGPT continuarán haciendo clic en la alternancia «Eliminar» que no se elimina técnicamente. Por otro lado, la implementación de nuevas políticas para la humanidad sigue patrones familiares.
¿Por qué? Los nuevos usuarios elegirán sus preferencias mientras se registran, pero los usuarios existentes enfrentan ventanas emergentes con «terminología del consumidor y actualización de políticas» en texto grande, con un botón prominente de «aceptar» negro.
Como se observó hoy en el borde, el diseño plantea preocupaciones de que los usuarios pueden hacer clic rápidamente para «aceptar» sin darse cuenta de que han acordado el intercambio de datos.
Por otro lado, los intereses para las percepciones de los usuarios no aumentan. Los expertos en privacidad han advertido durante mucho tiempo que la complejidad que rodea la IA hace que el consentimiento significativo del usuario sea casi imposible. Según la administración Biden, la Comisión Federal de Comercio ha intervenido para advertir que las medidas de cumplimiento están en juego si las compañías de IA participan en «cambiar en secreto sus términos de servicio o políticas de privacidad, o completar divulgaciones legales impresas»;
Si el comité está operando actualmente con tres de los cinco comisionados, si todavía buscamos estas prácticas hoy es una pregunta abierta que colocamos directamente en la FTC.
Source link
