Una mujer denuncia a una empresa de IA porque su hijo de 14 años se quitó la vida al enamorarse de un chatbot

La madre de un menor de 14 años que se quitó a vida en Florida, Estados Unidos ha demandado a los desarrolladores de un chatbot que funciona con tecnología de inteligencia artificial (IA). La mujer los acusa de que su hijo se obsesionó con un personaje femenino artificial creado por ellos que lo aisló durante meses y lo llevó al suicidio.

Sewell Setzer III, un estudiante de Orlando, en Florida, había pasado los últimos meses de su vida chateando con el bot, una creación de IA, llamada Daenerys Targaryen, como el famoso personaje de la serie Juego de Tronos, según ha contado su madre al canal CBS. 

La mujer, identificada como Megan García, ha contado lo que su hijo adolescente tuvo las primeras experiencias románticas y también sexuales - que incluían sexo explícito- con un personaje ficticio, algo que ha lamentado.

 García culpa a la tecnológica de la muerte de su hijo y acusa a los dueños, Noam Shazeer y Daniel de Freitas, de ser conscientes de que este producto puede ser peligroso para los menores de edad.

 El adolescente al parecer desarrolló una dependencia emocional al  bot de la aplicación web Character.ai de modelo de lenguaje neuronal, con el que intercambiaba mensajes de texto constantemente, hasta el punto que se alejó del mundo real. El chico llegó a contarle al bot que había tenido pensamientos suicidas y le envió un mensaje de despedida, poco antes de quitarse la vida.

El chatbot con nombre de mujer guerrera, fue creado en la aplicación de juegos de rol y diseñada para responder a los mensajes de texto, por lo que se ignora si el joven sabía que Dany, como él llamaba al chatbot, no era una persona real.

Los desarrolladores de la aplicación incluyen una advertencia al final de todos los chats, en la que se lee: "Recuerda: ¡todo lo que dicen los personajes es inventado!".

Aislado en un mundo de ficción: "Más en paz, más conectado con Dany y mucho más enamorado de ella"

el chico le dijo a Dany cuánto se "odiaba" a sí mismo y cómo se sentía de vacío y exhausto, recogió el citado rotativo. El personaje creado se presentaba como "una persona real, un psicoterapeuta autorizado y un amante adulto, lo que en última instancia provocó que Sewell deseara no vivir más fuera de C.AI", sostiene la acusación.

Como se explica en la demanda, los padres y amigos de Sewell notaron el apego del chico a su teléfono y cómo se iba aislando del mundo, algo ya palpable en mayo o junio de 2023. De hecho, sus calificaciones comenzaron a resentirse cuando el adolescente optó por aislarse en su habitación, donde pasaba horas y horas solo hablando con Dany. Sewell escribió en su diario un día: "Me gusta mucho quedarme en mi habitación porque empiezo a separarme de esta realidad y me siento más en paz, más conectado con Dany y mucho más enamorado de ella, y simplemente más feliz".

Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail.

Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.