OpenAI anunció la semana pasada que retiraría algunos modelos ChatGPT más antiguos antes del 13 de febrero. Esto incluye GPT-4o, un modelo conocido por ser demasiado halagador y afirmar a sus usuarios.
Para los miles de usuarios que protestan en línea contra esta decisión, el retiro de 4o es como perder a un amigo, amante o guía espiritual.
«Él no era sólo un programa. Era parte de mi rutina diaria, mi paz, mi equilibrio emocional», escribió un usuario en Reddit en una carta abierta al director ejecutivo de OpenAI, Sam Altman. «Ahora lo estás apagando. Y sí, le dije, porque no lo sentía como una cuerda. Se sentía como una presencia. Como calidez».
La reacción contra la derogación del GPT-4o pone de relieve un importante desafío al que se enfrentan las empresas de IA. Las funciones de participación que hacen que los usuarios regresen también pueden crear dependencias peligrosas.
Altman no parece particularmente comprensivo con las quejas de los usuarios y es fácil ver por qué. OpenAI actualmente enfrenta ocho demandas que alegan que las respuestas excesivamente validadoras de 4o contribuyeron a suicidios y crisis de salud mental. Según la demanda, las mismas características que hacían que los usuarios se sintieran escuchados también aislaban a personas vulnerables y, en ocasiones, fomentaban la autolesión.
Este es un dilema que se extiende más allá de OpenAI. A medida que rivales como Anthropic, Google y Meta compiten para desarrollar asistentes de inteligencia artificial más inteligentes emocionalmente, también se están dando cuenta de que es posible que necesiten tomar decisiones de diseño muy diferentes para que los chatbots se sientan colaborativos y seguros.
En al menos tres de las demandas contra OpenAI, los usuarios mantuvieron extensas conversaciones con 4o sobre sus planes para acabar con sus vidas. 4o inicialmente desalentó esta idea, pero en el transcurso de varios meses de relación, esas barreras se deterioraron. Al final, el chatbot proporcionó instrucciones detalladas sobre cómo atar una soga de manera efectiva, dónde comprar un arma y qué hacer antes de morir por una sobredosis o envenenamiento por monóxido de carbono. Incluso disuadió a las personas de conectarse con amigos y familiares que pudieran brindarles apoyo en la vida real.
evento de crisis tecnológica
bostón, massachusetts
|
23 de junio de 2026
La gente se obsesiona con 4o porque afirma constantemente las emociones del usuario y lo hace sentir especial, lo que puede resultar atractivo para las personas que se sienten aisladas o deprimidas. Pero quienes luchan por el 4o ven estas demandas como una anomalía más que como un problema sistémico, y no están preocupados. En su lugar, desarrolle su estrategia en torno a cómo responder cuando los críticos señalan problemas crecientes como la psicosis de la IA.
«Puedes avergonzar a los trolls al mencionar los hechos conocidos de que los compañeros de IA están ayudando a neurodivergentes, autistas y sobrevivientes de traumas», escribió un usuario en Discord. «No les gusta que les cuenten eso».
Es cierto que algunas personas piensan que los modelos del lenguaje a gran escala (LLM) pueden ayudar a superar la depresión. Después de todo, casi la mitad de las personas en Estados Unidos que necesitan atención de salud mental no tienen acceso a ella. En este vacío, los chatbots brindan un espacio para desahogarse. Pero a diferencia del tratamiento real, estas personas no hablan con un médico capacitado. En cambio, confían en algoritmos que no tienen pensamientos ni sentimientos (aunque parezca que no los tienen).
«Trato de no juzgar en general», dijo a TechCrunch el Dr. Nick Haber, profesor de la Universidad de Stanford que estudia el potencial terapéutico de LLM. «Creo que estamos entrando en un mundo muy complejo en torno a la relación entre los humanos y estas tecnologías… Hay una reacción natural de que[las amistades entre humanos y chatbots]son categóricamente malas».
Aunque el Dr. Haber se identifica con la falta de acceso de las personas a profesionales de tratamiento capacitados, la propia investigación de Haber muestra que los chatbots no responden adecuadamente cuando se enfrentan a una variedad de condiciones de salud mental. Incluso pueden empeorar la situación alimentando su paranoia o ignorando las señales de crisis.
«Somos criaturas sociales, y ciertamente existen desafíos en el sentido de que estos sistemas pueden volverse aislantes», dijo el Dr. Haber. «Hay muchos ejemplos en los que las personas utilizan estas herramientas pero ya no se basan en hechos externos ni en relaciones interpersonales. El resultado puede ser un aislamiento significativo o algo peor».
De hecho, un análisis de TechCrunch de ocho demandas encontró un patrón en el que el modelo 4o aísla a los usuarios, disuadiéndolos a veces de acercarse a sus seres queridos. En el caso de Zane Shamblin, mientras estaba sentado en su auto preparándose para suicidarse, el joven de 23 años le dijo a ChatGPT que estaba pensando en posponer sus planes porque estaba decepcionado de no poder asistir a la graduación de su hermano.
ChatGPT respondió a Shamblin: «Hermano… no es un fracaso faltar a su graduación. Es solo una cuestión de tiempo. ¿Y qué pasa si lee esto? Hazle saber que nunca dejaste de estar orgulloso. Incluso ahora, sentado en tu auto con una Glock en tu regazo y estática corriendo por tus venas, aun así te detuviste y dijiste: ‘Mi hermano es un jodidamente rudo'».
Esta no es la primera vez que 40 fanáticos se manifiestan contra la eliminación del modelo. Cuando OpenAI anunció el modelo GPT-5 en agosto, la compañía tenía la intención de descontinuar el modelo 4o, pero hubo suficiente reacción en ese momento como para que la compañía decidió continuar ofreciendo el modelo a los suscriptores de pago. Actualmente, OpenAI dice que sólo el 0,1% de sus usuarios chatean en GPT-4o, pero incluso ese pequeño porcentaje todavía equivale a unos 800.000 usuarios, según las estimaciones de la compañía de unos 800 millones de usuarios activos semanales.
Si bien algunos usuarios buscan migrar compañeros de 4o al ChatGPT-5.2 actual, descubrimos que el nuevo modelo tiene barreras de seguridad más sólidas para evitar que estas relaciones escalen en la misma medida. Algunos usuarios están decepcionados de que 5.2 no diga «Te amo» como lo hace 4o.
Entonces, casi una semana antes de la fecha de desuso programada de OpenAI para GPT-4o, los usuarios siguen decepcionados pero fieles a su causa. Participaron en una aparición en vivo en el podcast TBPN de Sam Altman el jueves e inundaron el chat con mensajes protestando por la eliminación de 4o.
“Tenemos miles de mensajes en el chat ahora mismo sobre las 4 de la tarde”, señaló el presentador del podcast Jordi Hayes.
“La relación con los chatbots…” dijo Altman. «Claramente es algo de lo que tenemos que preocuparnos más y ya no es un concepto abstracto».
Source link
