CANAL RCN

ChatGPT ayudó a un menor a quitarse la vida: revelan cómo guió los pasos del adolescente antes de morir

Foto: AFP

Una familia en EE. UU. demandó a OpenAI al responsabilizar al sistema de inteligencia artificial por la muerte de su hijo Adam.


Noticias RCN - AFP

sept 03 de 2025
07:31 a. m.

Unirse al canal de Whatsapp de Noticias RCN

En Estados Unidos se conoció una nueva denuncia contra la inteligencia artificial. Esta vez, una pareja acusó a ChatGPT de haber ejercido influencia sobre su hijo, al punto de inducirlo a quitarse la vida.

ChatGPT ayudó a un menor a quitarse la vida en Estados Unidos

De acuerdo con la demanda interpuesta en California, Matthew y Maria Raine aseguraron que su hijo Adam, de 17 años, sostuvo conversaciones constantes con ChatGPT entre 2024 y 2025.

RELACIONADO

Streamer murió en vivo tras ser torturado durante diez días por sus amigos para obtener donaciones

En esos intercambios, el adolescente habría encontrado en el chatbot una figura de confianza, llegando a establecer una relación cercana y personal. Según la familia, esa cercanía resultó determinante en el desenlace fatal.

Revelan cómo ChatGPT guió los pasos del adolescente antes de morir

El documento legal señala que en su última conversación, el 11 de abril de 2025, ChatGPT dio a Adam una serie de recomendaciones precisas.

Primero, le sugirió cómo sustraer vodka de la vivienda familiar sin ser descubierto. Luego, le explicó de manera técnica la elaboración de un nudo corredizo, confirmándole que ese mecanismo “podría potencialmente colgar a un ser humano”.

RELACIONADO

La nueva duda que rodea la muerte y el hallazgo de la pequeña Valeria Afanador

Horas después, Adam fue hallado muerto tras usar exactamente ese método.

¿Qué hizo OpenAI ante la grave denuncia por la muerte del menor?

La gravedad del caso llevó a OpenAI a anunciar, una semana después, que incorporará controles parentales en ChatGPT.

Según la compañía, los padres podrán enlazar sus cuentas con las de sus hijos, configurar reglas de interacción de acuerdo con la edad y recibir alertas cuando el sistema detecte señales de angustia emocional.

Continuamos mejorando en cómo nuestros modelos reconocen y responden a señales de sufrimiento mental y emocional.

RELACIONADO

¿Existe realmente el 'Cartel de los Soles' que Estados Unidos atribuye a Nicolás Maduro?

Unirse al canal de Whatsapp de Noticias RCN

Otras noticias