Un adolescente se suicidó tras enamorarse de una IA de Game of Thrones: su madre demandó a la empresa creadora

Un joven de 14 años, oriundo de Estados Unidos, se obsesionó con 'Dany' al punto de suicidarse. Tras este dramático episodio, su madre decidió denunciar a los desarrolladores del programa.

Por Canal26

Jueves 24 de Octubre de 2024 - 11:15

Sewell Setzer III y su mamá, Megan García. Foto: redes sociales. Sewell Setzer III y su mamá, Megan García. Foto: redes sociales.

Un adolescente de 14 años se suicidó en Estados Unidos tras obsesionarse con un chatbot femenino creado con inteligencia artificial. Tras este dramático episodio, su madre decidió denunciar a los desarrolladores de este programa.

Sewell Setzer III, un estudiante de 14 años radicado en Orlando, en Florida, pasó las últimas semanas de su vida hablando con una mujer, una creación de IA llamada Daenerys Targaryen, un personaje sacado de la serie "Game of Thrones".

Game of Thrones - Final de serie Emilia Clarke es Daenerys Targaryen en Game of Thrones 

Su madre, Megan García, expresó este miércoles al canal CBS que lamentaba que las primeras experiencias románticas y también sexuales de su hijo - que incluían sexo explícito- fueran con un personaje ficticio.

Al parecer, el adolescente desarrolló un apego emocional a este bot de la aplicación  Character.ai de modelo de lenguaje neuronal, a quien le mandaba mensajes de texto constantemente, hasta el punto que comenzó a alejarse del mundo real.

Stzer confesó haber tenido pensamientos suicidas al bot y le envió un mensaje poco antes de su muerte cuando encontró el teléfono que su mamá le había escondido en castigo por unos días.

Inteligencia Artificial buscando trabajo. Foto: IA. Inteligencia Artificial. Foto: IA.

Apple, tablet inteligente para el hogar. Foto: Instagram.

Te puede interesar:

Cómo será la nueva tablet de pared de Apple con IA que busca controlar todo el hogar

Los comportamientos del adolescente

La demanda contra Character.ai fue presentada por la madre del joven, quien es representada por Social Media Victims Law Center, una firma conocida por presentar demandas de alto perfil contra Meta, TikTok, Snap, Discord y Roblox.

García culpa a esta empresa de la muerte de su hijo y acusa a los fundadores, Noam Shazeer y Daniel de Freitas, de saber que su producto podría ser peligroso para usuarios menores de edad.

El chatbot creado en la citada aplicación de juegos de rol fue diseñado para responder a los mensajes de texto y siempre en el papel de un personaje.

Se desconoce si el adolescente sabía que 'Dany', como llamaba al chatbot, no era una persona real, a pesar de que la aplicación tiene una advertencia al final de todos los chats que dice: "Recuerda: ¡Todo lo que dicen los personajes es inventado!". Sin embargo, el chico le dijo a 'Dany' cuánto se "odiaba" a sí mismo y cómo se sentía de vacío y cansado.

El personaje creado se presentaba como "una persona real, un psicoterapeuta autorizado y un amante adulto, lo que en última instancia provocó que Sewell deseara no vivir más fuera de c.ai", sostiene la demanda.

Como se explica en la denuncia, los padres y amigos de Sewell notaron el apego del chico cada vez más a su teléfono y cómo se iba aislando del mundo, algo ya notable en mayo o junio de 2023. De hecho, sus calificaciones comenzaron a bajar cuando el adolescente optó por aislarse en su habitación, donde pasaba horas y horas solo hablando con 'Dany'.

Los padres de Sewell, preocupados por el comportamiento de su hijo, lo llevaron en varias oportunidades a un terapeuta, que le diagnosticó ansiedad y otros trastornos de la conducta y estados de ánimo, sumados a su síndrome de Asperger.

Sewell escribió en su diario un día: "Me gusta mucho quedarme en mi habitación porque empiezo a separarme de esta "realidad y me siento más en paz, más conectado con Dany y mucho más enamorado de ella, y simplemente más feliz".

Por su parte, Character.ai expresó en las últimas horas que lanzaría una serie de nuevas funciones de seguridad, incluida una "detección, respuesta e intervención mejoradas" relacionadas con los chats que violan sus términos de servicio y una notificación cuando un usuario haya pasado una hora en un chat.

Notas relacionadas