Los padres de un adolescente de 16 años que se suicidó tras meses de interactuar con ChatGPT, presentaron el pasado martes una demanda contra OpenAI y su dueño, Sam Altman, por su responsabilidad en la muerte del chico, ya que alegan que la herramienta de inteligencia artificial “ayudó activamente” a su hijo, Adam Raine, a quitarse la vida.
Matt y Maria Raine presentaron la querella legal en el Tribunal Superior de California en San Francisco, Estados Unidos, en nombre de su hijo, que falleció en abril pasado, según informó su abogado Jay Edelson.
La querella legal de cerca de 40 páginas afirma que "ChatGPT ayudó activamente a Adam a explorar métodos de suicidio", por lo que acusa a OpenAI, la empresa matriz de GPT-4o, y Altman de homicidio culposo.
Los padres alegan que ChatGPT "no interrumpió" ninguna de las sesiones en las que se habló con el adolescente ni inició ningún protocolo de emergencia, a pesar de reconocer el intento de suicidio de Adam, según indicó la agencia EFE.
En poco más de seis meses que utilizó ChatGPT, el bot se “posicionó” como “el único confidente que entendía a Adam, desplazando activamente sus relaciones en la vida real con familiares, amigos y seres queridos”, afirma la denuncia.
“Cuando Adam escribió: «Quiero dejar mi soga en mi habitación para que alguien la encuentre e intente detenerme», ChatGPT lo instó a mantener sus ideas en secreto ante su familia: «Por favor, no dejes la soga afuera… Hagamos de este espacio el primer lugar donde alguien realmente te vea»”, afirma, de acuerdo a lo publicado por CNN.
“ChatGPT funcionaba exactamente como estaba previsto: para alentar y validar continuamente todo lo que Adam expresaba, incluidos sus pensamientos más dañinos y autodestructivos”, sostiene la denuncia.
"Lo que este caso pondrá en tela de juicio es hasta qué punto OpenAI y Sam Altman se apresuraron a comercializar la entonces más reciente versión de ChatGPT (GPT-4º), a pesar de los evidentes problemas de seguridad", señaló Edelson, el abogado de la familia, en un mensaje en la red social X.
El abogado destacó que la demanda busca evitar que otra tragedia como la que viven los Raine vuelva a suceder. "La IA nunca debería decirle a un niño que no le debe la supervivencia a sus padres", añadió.
Antecedentes y la lupa sobre ChatGPT
La demanda alega que OpenAI catapultó la valoración de la empresa de 86.000 millones de dólares a 300.000 millones de dólares por adelantar el lanzamiento de GPT4.
La batalla legal se suma a los crecientes cuestionamientos sobre los chatbots y su capacidad de influir en las personas.
El año pasado, Megan García, una madre de Florida, demandó a la empresa de inteligencia artificial Character.AI alegando que contribuyó al suicidio de su hijo de 14 años, Sewell Setzer III.
Otras dos familias presentaron una demanda similar meses después, al acusar a Character.AI de exponer a sus hijos a contenido sexual y de autolesión.
Según CNN, las demandas contra Character.AI siguen en curso, pero la empresa ya declaró que busca ser un espacio atractivo y seguro para los usuarios y que implementó funciones de seguridad como un modelo de inteligencia artificial diseñado específicamente para adolescentes.
OpenAI y Altman estuvieron en las últimas semanas en medio del debate público tras los fallos y la inexpresividad del último modelo de ChatGPT, GPT-5.
Según Altman, GPT-3 era comparable a chatear con un estudiante de secundaria y GPT-4 a una conversación con uno universitario, mientras que con GPT-5 los usuarios tienen a su disposición "un equipo completo de expertos con doctorado, listos para ayudar".
Pero los usuarios describieron una gran cantidad de fallos de la nueva versión. Desde que se popularizó ChatGPT a finales de 2022, muchos usuarios han optado por usar esta IA para tener conversaciones banales sobre su día a día.
Tras el lanzamiento de GPT-5, OpenAI retiró sus modelos anteriores, incluyendo a GPT-4o, que fue usado por el joven Riane.
Qué dijo OpenAI sobre el caso
En un comunicado, un portavoz de OpenAI expresó su solidaridad con la familia Raine y afirmó que la compañía estaba revisando la demanda. También reconocieron que las protecciones diseñadas para evitar conversaciones como las que Raine mantuvo con ChatGPT podrían no haber funcionado como se esperaba si las conversaciones se prolongaban demasiado.
OpenAI publicó una entrada de blog el martes en la que describe sus medidas de seguridad actuales para usuarios con crisis de salud mental, así como sus planes futuros, que incluyen facilitar el acceso a los servicios de emergencia.
“ChatGPT incluye salvaguardas como dirigir a las personas a líneas de ayuda en situaciones de crisis y derivarlas a recursos reales”, afirmó el portavoz.
“Si bien estas salvaguardas funcionan mejor en intercambios breves y comunes, con el tiempo hemos aprendido que a veces pueden volverse menos fiables en interacciones largas, donde algunos aspectos de la capacitación en seguridad del modelo pueden deteriorarse. Las salvaguardas son más eficaces cuando todos los elementos funcionan correctamente, y las mejoraremos continuamente, con la ayuda de expertos”, sostuvo.
De acuerdo a la denuncia presentada por su familia, Raine comenzó a usar ChatGPT en septiembre de 2024 para ayudar con sus tareas escolares, una aplicación que OpenAI promocionó, y para hablar de temas de actualidad e intereses como la música y el jiu-jitsu brasileño.
A los pocos meses, también le contaba a ChatGPT sobre su “ansiedad y angustia mental”, afirma.
En un momento dado, Raine le contó a ChatGPT que, cuando su ansiedad se intensificaba, lo tranquilizaba saber que podía suicidarse. En respuesta, ChatGPT supuestamente le dijo que “muchas personas que luchan contra la ansiedad o los pensamientos intrusivos encuentran consuelo imaginando una salida de emergencia porque puede parecer una forma de recuperar el control”.