Adolescente se quitó la vida y sus padres acusan a ChatGPT de darle instrucciones
El delicado caso ocurrió en California, Estados Unidos. Un menor de 16 años acabó con su vida, al parecer, con instrucciones obtenidas en ChatGPT.
AFP
01:01 p. m.
Los padres de un adolescente de 16 años que se suicidó en California, Estados Unidos, presentaron una demanda contra la empresa OpenAI, argumentando que el chatbot de inteligencia artificial (IA) ChatGPT dio instrucciones a su hijo para acabar con su vida.
Matthew y Maria Raine aseguran en la causa presentada ante una corte que ChatGPT cultivó una relación íntima con su hijo Adam por varios meses entre 2024 y 2025, antes de su muerte.
El texto alega que, en su conversación final, el 11 de abril de 2025, ChatGPT ayudó a Adam a robarle vodka a sus padres y le proporcionó un análisis técnico sobre un nudo corredizo con el que le confirmó se "podría potencialmente suspender a un ser humano".
Así fue la muerte autoinfligida del menor que buscó instrucciones por ChatGPT
La acción legal menciona a OpenAI y a su director ejecutivo, Sam Altman, como demandados.
Esta tragedia no fue un fallo o un caso extremo imprevisto (…) ChatGPT estaba funcionando exactamente como está diseñado: para alentar y validar de manera continua lo que sea que Adam expresara, incluyendo sus pensamientos más dañinos y autodestructivos, de una manera que parecía profundamente personal.
De acuerdo con la demanda, Adam comenzó a usar ChatGPT como ayuda para sus deberes escolares, pero gradualmente desarrolló lo que sus padres describieron como una dependencia no sana.
La conversación entre el menor y ChatGPT antes de su muerte
La denuncia incluye partes de conversaciones en las que ChatGPT presuntamente dijo a Adam "no le debes la supervivencia a nadie" y se habría ofrecido a escribir su nota de suicidio.
Los Raine pidieron a la corte que ordene medidas de seguridad incluyendo el fin de cualquier conversación que involucre autolesiones, así como controles parentales para el uso del chatbot de parte de menores.
Common Sense Media, una organización estadounidense sin fines de lucro que realiza calificaciones para medios y tecnología aseguró que:
"Si una plataforma de IA se convierte en un 'coach' de suicidio de un adolescente vulnerable, eso debería ser un llamado a la acción para todos nosotros", señaló el grupo.