Una herramienta verifica voces, como la del rey Felipe VI, para saber si son audios reales o creados con IA

Un sistema diseñado por investigadores de la Universidad de Granada para combatir la desinformación permite averiguar si una grabación de voz es real o se ha generado mediante Inteligencia Artificial (IA).

Cuenta con la particularidad de que integra modelos específicos para voces de personalidades que son objetivo frecuente de noticias falsas.

En concreto, la herramienta, fruto de un trabajo de investigación desarrollado en el marco de la Cátedra de la Universidad de Granada RTVE-UGR, está especialmente capacitada para validar las voces del rey Felipe VI, el presidente del Gobierno, Pedro Sánchez, y la vicepresidenta del Gobierno y ministra de Trabajo y Economía Social, Yolanda Díaz.

Su diseño por los investigadores Zoraida Callejas, David Griol y Daniel Calderón, expertos en sistemas conversacionales y tecnologías del habla y del procesamiento del lenguaje, ha partido de la proliferación, "especialmente tras un año electoral intenso", de falsos audios en el ámbito periodístico, una práctica, la de las 'fake news' (noticias falsas), que hasta ahora había estado más circunscrita a los vídeos y las fotografías, según sus autores.

En la actualidad, los avances en el uso de redes neuronales profundas para la síntesis de audio están permitiendo obtener voces sintéticas (esto es, generadas mediante IA) cada vez más realistas. Esto tiene grandes ventajas, pues permite dotar de voces más inteligibles a los sistemas automáticos (por ejemplo, lectores de texto, asistentes virtuales, robots…), así como controlar sus características, haciéndolas más expresivas y diversas (con aplicaciones por ejemplo en la producción de contenido multimedia).

Sin embargo, la síntesis de habla también se puede utilizar para crear o manipular grabaciones de audio para fines maliciosos, como la suplantación de identidad en estafas telefónicas o la generación de noticias falsas.

Estafas telefónicas

Para este último caso, el de las estafas telefónicas, también podría servir el nuevo sistema, subiendo a la plataforma creada el audio en cuestión para intentar determinar si es una voz real, pero la investigadora admite que este es un problema de más difícil resolución, dado que en ocasiones esas llamadas falsas de voz instan al interlocutor a que decida en el momento.

"Juegan con el factor tiempo: te llaman y quieres que decidas en el momento, y a veces (la llamada) te pilla en la calle con ruido ambiente, lo que hace que no te percates de si la voz es sintética o no parece muy natural", ha alegado.

En qué se diferencia de otras

La diferencia de esta nueva herramienta con respecto a otras de verificación de audios es que no solo integra modelos generales que permiten discernir, con una alta probabilidad, si cualquier audio subido a la plataforma es real o no, sino también modelos específicos ceñidos de momento a las tres personalidades del ámbito político citados anteriormente.

Durante la presentación llevada a cabo este lunes, un robot ha emitido, a modo de ejemplo, voces clonadas y reales de Felipe VI, Pedro Sánchez y Yolanda Díaz para ilustrar las dificultades de identificar un audio original de otro creado con la Inteligencia Artificial.

Próximos retos

El equipo de investigación, que lleva más de veinte años trabajando en dotar a las máquinas de la capacidad de comunicarse sosteniendo conversaciones orales con las personas, pretende ir más allá de la verificación y desarrollar herramientas para los periodistas basadas en Inteligencia Artificial conversacional que proporcionen interactividad, accesibilidad y personalización de contenidos informativos.

En concreto, uno de los próximos retos es hacer los contenidos informativos interactivos, de modo que el lector pueda interactuar con un texto y obtener la información que desee sobre la noticia en cuestión.

Para el rector de la Universidad de Granada, Pedro Mercado, estos resultados muestran los "grandes desafíos" que la Inteligencia Artificial es capaz de situar en todos los ámbitos.