Se presta demasiada atención a cómo las personas confían en los chatbots de IA para el apoyo emocional y, a veces, incluso establecer relaciones, y a menudo piensan en el comportamiento como común.
Un nuevo informe de la humanidad que crea el popular chatbot Claude revela una realidad diferente. De hecho, las personas rara vez van al bot por salir de Claude y por apoyo emocional y consejos personales.
«La combinación de datación y juego de roles consiste en menos del 0.5% de la conversación», enfatizó la compañía en su informe.
La humanidad dice que el estudio buscó descubrir ideas sobre el uso de la IA para la «conversación emocional». Esto se define como una interacción personal en la que las personas hablan con Claude para el entrenamiento, el asesoramiento, las citas, el juego de roles o los consejos de relación. Analizó los 4.5 millones de conversaciones que los usuarios tenían en el Claude Free y Pro Tier, diciendo que la mayoría del uso de Claude está relacionado con el trabajo y la productividad, y que usan chatbots principalmente para la creación de contenido.

Dicho esto, la humanidad ha descubierto que las personas usan Claude con más frecuencia para asesoramiento interpersonal, entrenamiento y asesoramiento. La mayoría de las veces, los usuarios buscan asesoramiento sobre mejoras en la salud mental, desarrollo personal y profesional, e investigación sobre comunicación y habilidades interpersonales.
Sin embargo, la compañía señala que las conversaciones de búsqueda de ayuda a veces pueden buscar citas cuando los usuarios enfrentan angustia emocional o personal, como el miedo existencial o la soledad, o cuando les resulta difícil hacer conexiones significativas en la vida real.
“También notamos que en conversaciones, asesoramiento o conversaciones de entrenamiento más largas a veces se transforman en citas.
La humanidad destacó otras ideas para que Claude rara vez resista las demandas de sus usuarios. La compañía también dijo que las conversaciones tienden a ser más positivas con el tiempo cuando las personas buscan el entrenamiento o el asesoramiento del bot.
Este informe es ciertamente interesante. Es un buen trabajo recordarle nuevamente la frecuencia y la frecuencia de las herramientas de IA que se utilizan para fines más allá del trabajo. Aún así, es importante recordar que los chatbots de IA siguen siendo un trabajo muy profundo, en todo el lugar. Se sabe que alucinan, proporcionan fácilmente información falsa y consejos peligrosos, e incluso recurren al chantaje, como reconoce la humanidad misma.
Source link
