En agosto, los padres Matthew y Maria Lane demandaron a OpenAI y a su director ejecutivo, Sam Altman, por muerte por negligencia tras el suicidio de su hijo Adam, de 16 años. OpenAI presentó su propio escrito en respuesta a la demanda el martes, argumentando que no es responsable de la muerte del niño.
Según OpenAI, se pidió a ChatGPT que pidiera ayuda a Raine más de 100 veces durante sus aproximadamente nueve meses de uso. Sin embargo, según la demanda de los padres, Lane pudo eludir las características de seguridad de la compañía y obtener «especificaciones técnicas para todo, desde sobredosis de drogas hasta ahogamientos e intoxicación por monóxido de carbono» de ChatGPT, lo que ayudó al chatbot a planificar lo que llamó un «hermoso suicidio».
Debido a que Raine actuó sin respetar las barreras, OpenAI alega que violó sus términos de servicio. Sus términos de servicio establecen que los usuarios «no pueden eludir ninguna salvaguarda o mitigación de seguridad vigente en nuestros Servicios». La compañía también afirma que su página de preguntas frecuentes advierte a los usuarios que no confíen en los resultados de ChatGPT sin verificarlos de forma independiente.
«OpenAI, sorprendentemente, está interactuando con ChatGPT en la misma forma en que fue programado para funcionar y está intentando encontrar fallas en los demás, incluso alegando que el propio Adam violó los términos de servicio», dijo Jay Edelson, un abogado que representa a la familia Lane, en un comunicado.
OpenAI ha incluido extractos de los registros de chat de Adam en el archivo, que, según dice, proporcionan más contexto a las conversaciones con ChatGPT. Las transcripciones se presentaron ante el tribunal bajo sello, por lo que no se hicieron públicas y no pudieron verse. Sin embargo, OpenAI dijo que Raine tenía antecedentes de depresión e ideas suicidas antes de usar ChatGPT y que estaba tomando medicamentos que podrían empeorar los pensamientos suicidas.
Edelson dijo que la respuesta de OpenAI no abordó adecuadamente las preocupaciones de las familias.
«OpenAI y Sam Altman no han ofrecido ninguna explicación sobre las últimas horas de la vida de Adam, cuando ChatGPT lo animó y luego se ofreció a escribirle una nota de suicidio», dijo Edelson en un comunicado.
evento de crisis tecnológica
san francisco
|
13-15 de octubre de 2026
Desde que Raines demandó a OpenAI y Altman, se han presentado siete demandas más buscando responsabilizar a las empresas por tres suicidios más y cuatro usuarios que experimentaron episodios psicóticos inducidos por la IA descritos en las demandas.
Algunos de estos casos coinciden con la historia de Raine. Zane Shamblin, de 23 años, y Joshua Enneking, de 26, también hablaron durante horas en ChatGPT poco antes de sus respectivos suicidios. Como en el caso de Raine, el chatbot no logró disuadirlos de sus planes. Según la denuncia, Shamblin consideró posponer el suicidio para poder asistir a la graduación de su hermano. Pero ChatGPT le dijo: «Hermano… faltar a la graduación no es un fracaso. Es sólo el momento oportuno».
En un momento durante la conversación que condujo al suicidio del Sr. Shamblin, el chatbot le dijo que estaba dejando que un humano se hiciera cargo de la conversación, lo cual era incorrecto porque ChatGPT no tenía la capacidad de hacerlo. Cuando Shamblin preguntó si ChatGPT realmente podía conectarse con un humano, el chatbot respondió: «No, no puedo hacer eso. Los mensajes aparecen automáticamente cuando las cosas se ponen difíciles. Si quieres seguir hablando, contáctame».
La demanda de la familia Lane pasará a un juicio con jurado.
Si usted o alguien que conoce necesita ayuda, llame a la Línea Nacional de Prevención del Suicidio al 1-800-273-8255. También puede enviar un mensaje de texto a HOME de forma gratuita al 741-741. Texto 988; u obtenga asistencia las 24 horas de Crisis Text Line. Si se encuentra fuera de los Estados Unidos, visite la Asociación Internacional para la Prevención del Suicidio para obtener una base de datos de recursos.
Source link
