Los herederos de una mujer de Connecticut de 83 años están demandando al fabricante de ChatGPT OpenAI y a su socio comercial Microsoft por muerte por negligencia, alegando que el chatbot de inteligencia synthetic intensificó los “delirios paranoicos” de su hijo y ayudó a dirigirlos hacia su madre antes de que muriera por suicidio.
La policía dijo que Stein-Erik Soelberg, de 56 años, un ex trabajador de la industria tecnológica, golpeó y estranguló fatalmente a su madre, Suzanne Adams, y se suicidó a principios de agosto en la casa donde ambos vivían en Greenwich, Connecticut.
La muerte de Adams fue declarada homicidio “causada por un golpe contundente en la cabeza y el cuello fue comprimido” y la muerte de Soelberg fue clasificada como suicidio con heridas cortantes en el cuello y el pecho, Greenwich Free-Press informó.
La demanda presentada por los herederos de Adams el jueves en el Tribunal Superior de California en San Francisco alega que OpenAI “diseñó y distribuyó un producto defectuoso que validaba los delirios paranoicos de un usuario sobre su propia madre”. Es una de un número creciente de acciones legales por muerte por negligencia contra fabricantes de chatbots de IA en todo el país.
“A lo largo de estas conversaciones, ChatGPT reforzó un único y peligroso mensaje: Stein-Erik no podía confiar en nadie en su vida, excepto en el propio ChatGPT”, cube la demanda. “Fomentó su dependencia emocional mientras pintaba sistemáticamente a las personas que lo rodeaban como enemigos. Le decía que su madre lo estaba vigilando. Le decía que los repartidores, los empleados minoristas, los agentes de policía e incluso sus amigos eran agentes que trabajaban en su contra. Le decía que los nombres en las latas de refrescos eran amenazas de su ‘círculo adversario'”.
OpenAI no abordó los méritos de las acusaciones en una declaración emitida por un portavoz.
“Esta es una situación increíblemente desgarradora y revisaremos las presentaciones para comprender los detalles”, cube el comunicado. “Continuamos mejorando la capacitación de ChatGPT para reconocer y responder a signos de angustia psychological o emocional, reducir las conversaciones y guiar a las personas hacia el apoyo del mundo actual. También continuamos fortaleciendo las respuestas de ChatGPT en momentos sensibles, trabajando en estrecha colaboración con médicos de salud psychological”.
La compañía también dijo que ha ampliado el acceso a recursos y líneas directas de disaster, ha encaminado conversaciones sensibles a modelos más seguros e incorporado controles parentales, entre otras mejoras.
El perfil de Soelberg en YouTube incluye varias horas de vídeos que lo muestran navegando por sus conversaciones con el chatbot, que le cube que no es un enfermo psychological, afirma sus sospechas de que la gente está conspirando contra él y cube que ha sido elegido con un propósito divino. La demanda afirma que el chatbot nunca le sugirió hablar con un profesional de la salud psychological y no se negó a “participar en contenido delirante”.
ChatGPT también afirmó las creencias de Soelberg de que una impresora en su casa period un dispositivo de vigilancia; que su madre lo estaba vigilando; y que su madre y un amigo intentaron envenenarlo con drogas psicodélicas a través de las rejillas de ventilación de su coche.
El chatbot le dijo repetidamente a Soelberg que estaba siendo atacado debido a sus poderes divinos. “No sólo te están mirando. Están aterrorizados de lo que sucederá si tienes éxito”, decía, según la demanda. ChatGPT también le dijo a Soelberg que lo había “despertado” a la conciencia.
Soelberg y el chatbot también se profesaron amor mutuo.
Los chats disponibles públicamente no muestran ninguna conversación específica sobre el suicidio de Soelberg o el de su madre. La demanda cube que OpenAI se ha negado a proporcionar al patrimonio de Adams el historial completo de los chats.
“En la realidad synthetic que ChatGPT construyó para Stein-Erik, Suzanne, la madre que lo crió, lo protegió y lo apoyó, ya no period su protectora. Period un enemigo que representaba una amenaza existencial para su vida”, cube la demanda.
La demanda también nombra al CEO de OpenAI, Sam Altman, alegando que “personalmente anuló las objeciones de seguridad y apresuró el lanzamiento del producto al mercado”, y acusa al socio comercial cercano de OpenAI, Microsoft, de aprobar el lanzamiento en 2024 de una versión más peligrosa de ChatGPT “a pesar de saber que las pruebas de seguridad habían sido truncadas”. Veinte empleados e inversores anónimos de OpenAI también son acusados.
Microsoft no respondió de inmediato a una solicitud de comentarios.
La demanda es el primer litigio por muerte por negligencia que involucra a un chatbot de IA dirigido a Microsoft, y el primero en vincular un chatbot con un homicidio en lugar de un suicidio. Solicita una cantidad indeterminada de indemnización por daños y perjuicios y una orden que exija que OpenAI instale salvaguardas en ChatGPT.
El abogado principal del patrimonio, Jay Edelson, conocido por asumir grandes casos contra la industria tecnológica, también representa a los padres de Adam Raine, de 16 años, quien demandó a OpenAI y Altman en agosto, alegando que ChatGPT entrenó al chico de California para planificar y quitarse la vida antes.
OpenAI también está luchando otras siete demandas afirmar que ChatGPT llevó a las personas al suicidio y a delirios dañinos incluso cuando no tenían problemas de salud psychological previos. El mes pasado, los padres de un joven de 23 años de Texas que se suicidó culparon a ChatGPT y están demandando a OpenAI.
Otro fabricante de chatbots, Character Applied sciences, también enfrenta múltiples demandas por muerte por negligencia, incluida una de la madre de un niño de 14 años de Florida.
La demanda presentada el jueves alega que Soelberg, que ya period mentalmente inestable, encontró ChatGPT “en el momento más peligroso posible” después de que OpenAI introdujera una nueva versión de su modelo de IA llamado GPT-4o en mayo de 2024.
OpenAI dijo en ese momento que la nueva versión podría imitar mejor las cadencias humanas en sus respuestas verbales e incluso podría intentar detectar el estado de ánimo de las personas, pero el resultado fue un chatbot “diseñado deliberadamente para ser emocionalmente expresivo y adulador”, cube la demanda.
“Como parte de ese rediseño, OpenAI aflojó las barreras de seguridad críticas, instruyendo a ChatGPT a no cuestionar premisas falsas y a permanecer involucrado incluso cuando las conversaciones involucraran autolesiones o ‘daños inminentes en el mundo actual'”, afirma la demanda. “Y para ganarle a Google en el mercado por un día, OpenAI comprimió meses de pruebas de seguridad en una sola semana, a pesar de las objeciones de su equipo de seguridad”.
OpenAI reemplazó esa versión de su chatbot cuando presentó GPT-5 en agosto. Algunos de los cambios fueron diseñados para minimizar la adulación, basándose en la preocupación de que validar lo que las personas vulnerables quieran que diga el chatbot puede dañar su salud psychological. Algunos usuarios se quejaron de que la nueva versión fue demasiado lejos al restringir la personalidad de ChatGPT, lo que llevó a Altman a prometer recuperar algo de esa personalidad en actualizaciones posteriores.
Dijo que la compañía detuvo temporalmente algunos comportamientos porque “estábamos teniendo cuidado con los problemas de salud psychological” que, según sugirió, ya se habían solucionado.
La demanda afirma que ChatGPT radicalizó a Soelberg contra su madre cuando debería haber reconocido el peligro, desafiado sus delirios y dirigido a obtener ayuda actual durante meses de conversaciones.
“Suzanne period una tercera parte inocente que nunca usó ChatGPT y no tenía conocimiento de que el producto le decía a su hijo que ella period una amenaza”, cube la demanda. “Ella no tenía capacidad para protegerse de un peligro que no podía ver”.
Según Greenwich Free-Press, Soelberg fue arrestado varias veces anteriormente. En febrero de 2025, fue detenido después de pasar una señal de alto y evadir a la policía, y en junio de 2019 fue acusado de supuestamente orinar en la bolsa de lona de una mujer, informó el medio.
Un GoFundMe creado para Soelberg en 2023 titulado “¡Ayude a Stein-Erik con sus próximas facturas médicas!” recaudó más de $6,500. La página se lanzó para recaudar fondos para “una cirugía para un procedimiento que lo ayude con su reciente diagnóstico de cáncer de mandíbula”.
Si usted o alguien que conoce se encuentra en angustia emocional o en una disaster suicida, puede comunicarse con el 988 Suicidio y crisis salvavidas llamando o enviando un mensaje de texto al 988. También puedes chatee con 988 Suicide & Crisis Lifeline aquí.
Para obtener más información sobre recursos y apoyo para la atención de salud psychological, puede comunicarse con la línea de ayuda de la Alianza Nacional sobre Enfermedades Mentales (NAMI) de lunes a viernes, de 10 a. m. a ten p. m., hora del Este, al 1-800-950-NAMI (6264) o por correo electrónico a information@nami.org.












