Los riesgos psicológicos de usar la IA para "hablar" con seres queridos fallecidos
Los 'Deadbots' o 'Griefbots' son chatbots de inteligencia artificial que simulan los patrones de lenguaje y los rasgos de personalidad de los muertos
Cuando los vivos se inscriben para ser recreados virtualmente después de su muerte, las empresas podrían utilizar los chatbots resultantes para enviar spam
Pueden angustiar a los niños al insistir en que un padre fallecido todavía está con él
La inteligencia artificial que permite a los usuarios mantener conversaciones de texto y de voz con sus seres queridos perdidos corre el riesgo de causar daño psicológico e incluso "perseguir" digitalmente a quienes se quedan atrás sin estándares de seguridad de diseño, según investigadores de la Universidad de Cambridge (Reino Unido).
La investigación, publicada en la revista 'Philosophy and Technology', destaca el potencial de las empresas de utilizar robots muertos para anunciar subrepticiamente productos a los usuarios a la manera de un ser querido fallecido, o angustiar a los niños al insistir en que un padre fallecido todavía está "con usted".
MÁS
La inteligencia artificial va a cambiar tu forma de hacer turismo: de asistentes virtuales a planificar viajes
Desarrollan un modelo con inteligencia artificial para diagnosticar antes el alzhéimer
Investigados dos menores al crear con Inteligencia Artificial una foto falsa de otra menor desnuda en La Rioja
Los 'Deadbots' o 'Griefbots' son chatbots de inteligencia artificial que simulan los patrones de lenguaje y los rasgos de personalidad de los muertos utilizando las huellas digitales que dejan. Algunas empresas ya ofrecen estos servicios, proporcionando un tipo completamente nuevo de "presencia post mortem".
Los especialistas en ética de la IA del Centro Leverhulme para el Futuro de la Inteligencia de Cambridge describen tres escenarios de diseño para plataformas que podrían surgir como parte de la "industria de la vida futura digital" en desarrollo, para mostrar las posibles consecuencias de un diseño descuidado en un área de la IA que describen como de "alto riesgo"
Las empresas pueden utilizar chatbots para enviar a familiares supervivientes spam
Cuando los vivos se inscriben para ser recreados virtualmente después de su muerte, las empresas podrían utilizar los chatbots resultantes para enviar spam a familiares y amigos supervivientes con notificaciones no solicitadas, recordatorios y actualizaciones sobre los servicios que brindan, similar a ser "acechado digitalmente por los muertos".
Incluso aquellos que inicialmente encuentran consuelo en un 'robot muerto' pueden sentirse agotados por las interacciones diarias que se convierten en un "peso emocional abrumador", argumentan los investigadores, pero también pueden ser impotentes para suspender una simulación de IA si su ser querido ahora fallecido firmó un largo contrato.
"Los rápidos avances en la IA generativa significan que casi cualquier persona con acceso a Internet y algunos conocimientos básicos puede revivir a un ser querido fallecido", afirma la doctora Katarzyna Nowaczyk-Basinska, coautora del estudio e investigadora en el Centro Leverhulme para el Futuro de la Inteligencia de Cambridge (LCFI).
"Esta área de la IA es un campo minado ético. Es importante dar prioridad a la dignidad de los difuntos y garantizar que esto no se vea invadido por motivos financieros, por ejemplo, de servicios digitales de ultratumba."
"Al mismo tiempo, una persona puede dejar una simulación de IA como regalo de despedida a sus seres queridos que no están preparados para procesar su dolor de esta manera. Los derechos tanto de los donantes de datos como de quienes interactúan con los servicios de inteligencia artificial después de la muerte deben salvaguardarse por igual".
Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail.
Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.