Hablar con los muertos ya se puede con la inteligencia artificial y en China hay un boom: riesgos a nivel psicológico, ético y legal
La inteligencia artificial ha permitido la resurrección digital de quienes ya se fueron, pero los expertos alertan de los riesgos
En China hay un boom en este aspecto: los riesgos pueden ser muy altos a nivel psicológico, ético y legal
Los riesgos psicológicos de usar la IA para "hablar" con seres queridos fallecidos
La inteligencia artificial ha permitido la resurrección digital de quienes ya se fueron. Gracias a la tecnología podemos hablar con los muertos gracias a los archivos que quedan con sus voces. Pero, ¿podemos evitar que se usen nuestras voces cuando ya no estemos? Les contamos qué podemos hacer.
Una vez a la semana, Sun Kai recibe una videollamada de su madre. Hasta aquí sería todo normal, si no estuviera muerta. Falleció hace cinco años, pero la inteligencia artificial le permite ver y hablar con ella. Ya hay empresas que se dedican a ello, a resucitar digitalmente a nuestros seres queridos. En China es un auténtico boom: "Nunca pensé que volvería a verte", señalaba una mujer ante las imágenes de su difunto marido. Miles de personas ya han contratado estos servicios en el período de duelo.
MÁS
Óscar Cordón: "No sería bueno tener un avatar de una persona fallecida durante toda tu vida, nunca serías capaz de superarlo"
Las dudas surgen en varios terrenos; psicológico, ético y legal: "Siempre la tecnología va por delante de la legislación", explica Óscar Cordón, catedrático de inteligencia artificial de la Universidad de Granada. En España existe un testamento digital. Y en China, los familiares vivos inmediatos deben estar de acuerdo para poder clonar al fallecido. Y ¿psicológicamente?
"Pienso que no sería bueno tener un avatar de una persona fallecida durante toda tu vida, porque realmente nunca serías capaz de superarlo", detalla Cordón. Y, éticamente, ¿es lícito suplantar la identidad de una persona?
"La inteligencia artificial generativa algunas veces falla. Alucina, hace comportamientos erróneos. Puede ocurrir que te diga cosas que no esperas tú. Se han dado casos como suicidios relacionados con interacciones con un bot de ChatGPT", sentencia Cordón. El precio de la inmortalidad, a toda costa.
Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail
Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento