Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

Infy ​​APT de Irán resurge con nueva actividad de malware después de años de silencio

‘It felt so wrong’: Colin Angle on iRobot, the FTC, and the Amazon deal that never was

La gobernadora de Nueva York, Kathy Hochul, firma la ley RAISE que regula la seguridad de la IA

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Startups»OpenAI afirma que un adolescente pasó por alto las funciones de seguridad antes de suicidarse, ChatGPT ayudó a planificar
Startups

OpenAI afirma que un adolescente pasó por alto las funciones de seguridad antes de suicidarse, ChatGPT ayudó a planificar

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.comnoviembre 26, 2025No hay comentarios4 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

En agosto, los padres Matthew y Maria Lane demandaron a OpenAI y a su director ejecutivo, Sam Altman, por muerte por negligencia tras el suicidio de su hijo Adam, de 16 años. OpenAI presentó su propio escrito en respuesta a la demanda el martes, argumentando que no es responsable de la muerte del niño.

Según OpenAI, se pidió a ChatGPT que pidiera ayuda a Raine más de 100 veces durante sus aproximadamente nueve meses de uso. Sin embargo, según la demanda de los padres, Lane pudo eludir las características de seguridad de la compañía y obtener «especificaciones técnicas para todo, desde sobredosis de drogas hasta ahogamientos e intoxicación por monóxido de carbono» de ChatGPT, lo que ayudó al chatbot a planificar lo que llamó un «hermoso suicidio».

Debido a que Raine actuó sin respetar las barreras, OpenAI alega que violó sus términos de servicio. Sus términos de servicio establecen que los usuarios «no pueden eludir ninguna salvaguarda o mitigación de seguridad vigente en nuestros Servicios». La compañía también afirma que su página de preguntas frecuentes advierte a los usuarios que no confíen en los resultados de ChatGPT sin verificarlos de forma independiente.

«OpenAI, sorprendentemente, está interactuando con ChatGPT en la misma forma en que fue programado para funcionar y está intentando encontrar fallas en los demás, incluso alegando que el propio Adam violó los términos de servicio», dijo Jay Edelson, un abogado que representa a la familia Lane, en un comunicado.

OpenAI ha incluido extractos de los registros de chat de Adam en el archivo, que, según dice, proporcionan más contexto a las conversaciones con ChatGPT. Las transcripciones se presentaron ante el tribunal bajo sello, por lo que no se hicieron públicas y no pudieron verse. Sin embargo, OpenAI dijo que Raine tenía antecedentes de depresión e ideas suicidas antes de usar ChatGPT y que estaba tomando medicamentos que podrían empeorar los pensamientos suicidas.

Edelson dijo que la respuesta de OpenAI no abordó adecuadamente las preocupaciones de las familias.

«OpenAI y Sam Altman no han ofrecido ninguna explicación sobre las últimas horas de la vida de Adam, cuando ChatGPT lo animó y luego se ofreció a escribirle una nota de suicidio», dijo Edelson en un comunicado.

evento de crisis tecnológica

san francisco
|
13-15 de octubre de 2026

Desde que Raines demandó a OpenAI y Altman, se han presentado siete demandas más buscando responsabilizar a las empresas por tres suicidios más y cuatro usuarios que experimentaron episodios psicóticos inducidos por la IA descritos en las demandas.

Algunos de estos casos coinciden con la historia de Raine. Zane Shamblin, de 23 años, y Joshua Enneking, de 26, también hablaron durante horas en ChatGPT poco antes de sus respectivos suicidios. Como en el caso de Raine, el chatbot no logró disuadirlos de sus planes. Según la denuncia, Shamblin consideró posponer el suicidio para poder asistir a la graduación de su hermano. Pero ChatGPT le dijo: «Hermano… faltar a la graduación no es un fracaso. Es sólo el momento oportuno».

En un momento durante la conversación que condujo al suicidio del Sr. Shamblin, el chatbot le dijo que estaba dejando que un humano se hiciera cargo de la conversación, lo cual era incorrecto porque ChatGPT no tenía la capacidad de hacerlo. Cuando Shamblin preguntó si ChatGPT realmente podía conectarse con un humano, el chatbot respondió: «No, no puedo hacer eso. Los mensajes aparecen automáticamente cuando las cosas se ponen difíciles. Si quieres seguir hablando, contáctame».

La demanda de la familia Lane pasará a un juicio con jurado.

Si usted o alguien que conoce necesita ayuda, llame a la Línea Nacional de Prevención del Suicidio al 1-800-273-8255. También puede enviar un mensaje de texto a HOME de forma gratuita al 741-741. Texto 988; u obtenga asistencia las 24 horas de Crisis Text Line. Si se encuentra fuera de los Estados Unidos, visite la Asociación Internacional para la Prevención del Suicidio para obtener una base de datos de recursos.


Source link

#Aceleradoras #CapitalRiesgo #EcosistemaStartup #Emprendimiento #InnovaciónEmpresarial #Startups
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleRedwood Materials supuestamente recorta el 5% de su fuerza laboral después de recaudar 350 millones de dólares en financiación
Next Article JustiGuide quiere utilizar IA para ayudar a las personas a navegar por el sistema de inmigración de EE. UU.
corp@blsindustriaytecnologia.com
  • Website

Related Posts

‘It felt so wrong’: Colin Angle on iRobot, the FTC, and the Amazon deal that never was

diciembre 20, 2025

La gobernadora de Nueva York, Kathy Hochul, firma la ley RAISE que regula la seguridad de la IA

diciembre 20, 2025

Los socios de Sequoia desacreditan la teoría de los disparos de Brown y prueban un nuevo liderazgo

diciembre 20, 2025
Add A Comment
Leave A Reply Cancel Reply

el último

Infy ​​APT de Irán resurge con nueva actividad de malware después de años de silencio

‘It felt so wrong’: Colin Angle on iRobot, the FTC, and the Amazon deal that never was

La gobernadora de Nueva York, Kathy Hochul, firma la ley RAISE que regula la seguridad de la IA

El Departamento de Justicia de EE. UU. cobra 54 dólares por un plan de jackpotting en cajeros automáticos utilizando el malware Ploutus

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2025 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.