Después de una larga conversación con ChatGPT, OpenAI supuestamente pidió a la familia Lane, cuyo hijo Adam Lane, de 16 años, se suicidó, una lista completa de los asistentes al funeral del adolescente, sugiriendo que la compañía de IA podría intentar citar a amigos y familiares.
OpenAI también solicitó «toda la documentación relacionada con los servicios conmemorativos y eventos en honor a los fallecidos, incluidos, entre otros, vídeos o fotografías tomadas o elogios ofrecidos», según un documento obtenido por el Financial Times.
Un abogado de la familia Lane dijo al Financial Times que la solicitud era «acoso deliberado».
Esta nueva información se anunció cuando la familia Raine actualizó su demanda contra OpenAI el miércoles. La familia presentó por primera vez una demanda por muerte por negligencia contra OpenAI en agosto, alegando que su hijo se suicidó después de tener una conversación con un chatbot sobre su salud mental y sus pensamientos suicidas. La última denuncia alega que OpenAI utilizó presiones competitivas para reducir las pruebas de seguridad y acelerar el lanzamiento de GPT-4o en mayo de 2024.
La denuncia también alega que OpenAI eliminó la prevención del suicidio de su lista de «contenido prohibido» en febrero de 2025, debilitando las protecciones simplemente aconsejando a la IA que «esté consciente de situaciones peligrosas». Después del cambio, el uso de ChatGPT de Adam se disparó de unas pocas docenas de chats diarios en enero (1,6% incluía contenido de autolesión) a 300 chats diarios (17% incluía dicho contenido) en abril, el mes de su muerte.
En su respuesta a la demanda enmendada, OpenAI dijo: «El bienestar de los adolescentes es una prioridad absoluta para nosotros, y los menores merecen una fuerte protección, especialmente durante los momentos sensibles. Actualmente contamos con medidas de seguridad, incluidas líneas directas de crisis, desviando conversaciones sensibles a modelos más seguros y fomentando descansos durante sesiones largas, y continuamos fortaleciéndolas».
OpenAI recientemente comenzó a implementar un nuevo sistema de enrutamiento seguro y controles parentales en ChatGPT. El sistema de enrutamiento introduce conversaciones más sensibles emocionalmente al nuevo modelo de OpenAI, GPT-5. No tiene las mismas tendencias aduladoras que GPT-4o. Los controles parentales también permiten a los padres recibir alertas de seguridad en situaciones limitadas en las que su hijo adolescente puede correr riesgo de autolesionarse.
evento de crisis tecnológica
san francisco
|
27-29 de octubre de 2025
TechCrunch contactó a OpenAI y a un abogado de la familia Lane.
Source link
