Los herederos de una anciana estadounidense están demandando a OpenAI y Microsoft, alegando que ChatGPT alentó a un enfermo mental a matar a su madre y a sí mismo.
La policía dijo que Stein-Erik Soelberg, de 56 años, un ex trabajador de la industria tecnológica, golpeó y estranguló fatalmente a su madre, Suzanne Adams, de 83 años, y se suicidó en agosto en su casa en Connecticut.
La demanda, presentada el jueves en California por los herederos de Adams, acusa a OpenAI de “desarrollar y distribuir un producto defectuoso que confirma los delirios paranoicos de un usuario sobre su propia madre”.
Es una de un número creciente de demandas por muerte por negligencia contra fabricantes de chatbots de IA en todo el país.
“Durante estas conversaciones, ChatGPT reforzó un único y peligroso mensaje: Stein-Erik no podía confiar en nadie en su vida, excepto en el propio ChatGPT”, dice la demanda.
“Fomentó su dependencia emocional y retrató sistemáticamente a quienes lo rodeaban como enemigos.
“Le dijo que su madre lo estaba vigilando.
“Le dijeron que los repartidores, los trabajadores minoristas, los agentes de policía e incluso sus amigos eran agentes que trabajaban en su contra. Le dijeron que los nombres en las latas de refresco eran amenazas de su 'círculo enemigo'”.
El hijo de Stein-Erik Soelberg y su madre Suzanne Adams. (AP: PC Edelson)
Chatbot “se ocupa de contenido delirante”
OpenAI no abordó los méritos de las acusaciones en una declaración de un portavoz.
“Esta es una situación increíblemente desgarradora y revisaremos la documentación para comprender los detalles”, dice el comunicado.
La compañía dijo que ha ampliado el acceso a recursos y líneas directas de crisis, redirigido conversaciones sensibles a modelos más seguros e integrado controles parentales, entre otras cosas.
El perfil de Soelberg en YouTube contiene varias horas de vídeos que lo muestran recorriendo sus conversaciones con el chatbot, diciéndole que no es un enfermo mental, confirmando sus sospechas de que hay personas conspirando contra él y diciendo que fue elegido con un propósito divino.
La demanda afirma que el chatbot nunca le sugirió hablar con un psicólogo y no se negó a “participar en contenido delirante”.
Soelberg y el chatbot también confesaron su amor.
El director ejecutivo de OpenAI, Sam Altman, también figura en la demanda. (Reuters: Elizabeth Frantz)
Los chats disponibles públicamente no muestran conversaciones específicas sobre el suicidio de Soelberg o el de su madre.
La demanda dice que OpenAI se negó a proporcionar al patrimonio de Adams un historial completo de los chats.
“En la realidad artificial que ChatGPT creó para Stein-Erik, Suzanne, la madre que lo crió, lo protegió y lo apoyó, ya no era su protectora. Era un enemigo que representaba una amenaza existencial para su vida”, dice la demanda.
La demanda también nombra al CEO de OpenAI, Sam Altman, quien afirma que “personalmente hizo caso omiso de las preocupaciones de seguridad y apresuró el lanzamiento del producto al mercado” y acusa al socio comercial cercano de OpenAI, Microsoft, de aprobar el lanzamiento de una versión más peligrosa de ChatGPT en 2024 “a pesar de saber que se estaban recortando las pruebas de seguridad”.
Veinte empleados e inversores anónimos de OpenAI también son acusados.
Microsoft se negó a comentar sobre la demanda.
El hijo de Soelberg, Erik Soelberg, dijo que quería que las empresas rindieran cuentas por “decisiones que cambiaron a mi familia para siempre”.
“A lo largo de los meses, ChatGPT alimentó los delirios más oscuros de mi padre y lo aisló por completo del mundo real”, dijo en un comunicado.
“Puso a mi abuela en el centro de esta realidad artificial y delirante”.
La demanda es la primera demanda por muerte por negligencia que involucra a un chatbot de IA dirigido a Microsoft y la primera en vincular un chatbot con un asesinato en lugar de un suicidio.
Pide una indemnización por daños y perjuicios no especificados y una orden que exija a OpenAI instalar medidas de seguridad en ChatGPT.
AP