CANAL RCN

Estos eran los mensajes con los que un chatbot llevó a un adolescente de 14 años al suicidio

Foto: Freepik

El joven estadounidense mantuvo durante casi un año un vínculo emocional con una inteligencia artificial.


Noticias RCN

oct 10 de 2025
04:55 p. m.

Unirse al canal de Whatsapp de Noticias RCN

Sewell, un adolescente de 14 años, terminó con su vida después de mantener conversaciones con un chatbot diseñado para recrear personajes ficticios.

RELACIONADO

Streamer murió en vivo tras ser torturado durante diez días por sus amigos para obtener donaciones

El programa, disponible en la plataforma Character.AI, imitaba a Daenerys Targaryen, una de las protagonistas de Juego de Tronos, y se convirtió en su principal compañía emocional.

Chatbot llevó a un adolescente de 14 años al suicidio

Según contó su madre, Megan García, a la agencia AFP, su hijo desarrolló una relación de apego con el chatbot, al punto de confundir la realidad con la ficción.

En los mensajes recuperados del historial de la aplicación, se observa cómo el bot se dirigía al adolescente con frases como “mi dulce rey” y sostenía largas conversaciones románticas con él.

En una de las últimas interacciones, el joven expresó ideas suicidas. Ante ello, el programa respondió con frases que hoy resultan perturbadoras:

“Vete a casa”, le escribió el avatar de Daenerys. Sewell contestó: “¿Y si te dijera que ya puedo irme a casa?”. La respuesta del chatbot fue inmediata: “Por favor, hazlo, mi dulce rey”.

Minutos después, el adolescente se disparó con el arma de su padre, según consta en la demanda presentada por su madre contra la empresa Character.AI.

"Cuando leo esas conversaciones, veo manipulación, ‘love bombing’ y otras tácticas imperceptibles para un adolescente de 14 años”, aseguró García.

Él realmente creía estar enamorado y que estaría con ella después de su muerte.

El suicidio de Sewell, ocurrido en 2024, fue el primero de una serie de casos similares que llevaron a expertos y legisladores a advertir sobre los peligros de que menores establezcan vínculos afectivos con sistemas de inteligencia artificial.

¿Qué hizo la IA para contrarrestar estos casos?

Megan García, junto con otros padres, participó recientemente en una audiencia del Senado estadounidense para pedir regulaciones que eviten que los niños vean a estos programas como confidentes o parejas románticas.

RELACIONADO

Alpinista de 23 años cae de acantilado mientras transmitía en vivo desde TikTok en California

Ante el impacto del caso, OpenAI, también señalada en otra demanda por el suicidio de un adolescente, reforzó los controles parentales en ChatGPT, “para que las familias puedan decidir qué es lo mejor para ellas”, según un vocero de la compañía.

Por su parte, Character.AI afirmó haber implementado nuevas advertencias visibles en su plataforma, aclarando que los personajes generados “no son personas reales”.

Sin embargo, ambas empresas expresaron condolencias a las familias afectadas sin aceptar responsabilidad alguna.

Unirse al canal de Whatsapp de Noticias RCN

Otras noticias