Los delitos con Inteligencia Artificial: el nuevo Frankenstein del que ni los niños están a salvo

El ‘Monstruo de Frankenstein’, así ha definido recientemente la hija de Robin Williams a las aplicaciones de Inteligencia Artificial que utiliza la voz o la imagen de alguien para hacer o decir lo que se quiera, tras negarse a que se lucren con su padre.

La tecnología de la IA nos ha llegado de repente, nos ha caído como una losa entre los discursos apocalípticos de muchos de sus creadores, hemos comenzado a ver la punta del iceberg después de que las redes sociales se llenases de Deepfakes (informaciones falsas). Cada vez cuesta más distinguir lo verdadero de lo falso, la mejor arma para la manipulación.

Con unas leyes aun a años luz de poder legislar esta tecnología y sus usos, la mayoría de la sociedad comienza a conocer la IA a raíz de escándalos y denuncias de personas que han visto su imagen utilizada para crear contenido sexual, muchas de ellas menores, como lo sucedido en un colegio de Almendralejo.

Los padres han sido los que más desbordados se han sentido con el tsunami de la IA, la distancia generacional sumada al desconocimiento de las tecnologías que utilizan sus hijos deja descolgados a muchos progenitores que no saben cómo adelantarse para educar en la prevención.

En Informativos Telecinco hemos podido contar con Manuel Ransán, responsable de Ciberseguridad para Ciudadanos y Menores de INCIBE (Instituto Nacional de Ciberseguridad de España) para poder comprender un poco más sobre los malos usos de los Deepfakes, trucos para detectarlos o algunos consejos para padres.

¿Cómo se pueden utilizar los Deepfakes?

Los Deepfake pueden ser utilizados malintencionadamente de diversas formas. En el caso de niños, pueden ser utilizados en situaciones de ciberacoso, para crear vídeos falsos de un chaval con la intención de desprestigiarle, poniéndole en situaciones o con declaraciones que sean comprometidas. También, por desgracia, se tiene conocimiento del uso de este tipo de tecnologías para la creación de contenido de carácter sexual en menores, como hemos visto últimamente en los medios y que entrarían en el ámbito de la creación y difusión de pornografía infantil, con todas las implicaciones que eso tiene.

En el caso de los adultos, pueden ser engañados por Deepfake, que simulan ser familiares, amigos, un personaje famoso o simplemente aparentando ser cualquier otra persona con la que le resulte más sencillo engañar a la víctima y conseguir que haga determinadas acciones en su provecho.

Estos suelen ser los objetivos, pues pueden ser de propósito sexual, haciéndose pasar por intentándose ser un amante o tener una relación sentimental con esa persona para estafas financieras o simplemente para dañar su reputación.

¿Ha habido un repunte de fraudes utilizando este tipo de tecnología?

Sí, hay un aumento de fraudes porque cada vez el uso de la tecnología es mayor, cada vez hay una mayor dependencia y cada vez estas tecnologías avanzan y, igual que los aprovechamos el resto de la sociedad, también lo utilizan los ciberdelincuentes para hacer que sus fraudes y sus estafas sean cada vez más sofisticadas.

Trucos para detectar un vídeo fake

Podemos intentar buscar inconsistencias que pueda haber en la imagen o en el sonido, aunque cada vez, como decimos, son más sofisticadas y están más afinadas y cuesta más detectarlas.

También se pueden ver movimientos faciales, expresiones poco naturales en las personas que aparecen en los vídeos o en las imágenes. Pero bueno, lo más recomendable en estos casos es sentido crítico.

Cuando vemos una información no darla por veraz, sobre todo si nos llega por canales que nos den confianza o que consideremos que tienen cierta legitimidad. Y en ese caso, si nos llega por una red social, por un mensaje de mensajería instantánea, verificar la fuente, verificar la información en otras fuentes y comprobar si ese vídeo es auténtico. Luego hay también la posibilidad de utilizar herramientas algunas en línea que permiten o que dan una valoración si se trata de si ese vídeo se trata de un Deppfake.

¿Cómo deben afrontar los padres esto con sus hijos?

Deben estar atentos al uso que hacen de las tecnologías, a las aplicaciones que tienen sus dispositivos móviles, si hay aplicaciones que permiten generar o editar este tipo de vídeos y fotografías, pero sobre todo, tener un diálogo cotidiano con ellos sobre qué usos hacen de Internet, las tecnologías. Qué usos hacen sus amigos, comentar las noticias de este tipo que surgen en los medios para ver qué piensan de ellos y para de esta manera también trasladarles los valores familiares y qué cosas son correctas y cuáles no y qué implicaciones pueden tener el verse involucrado en alguna situación de este tipo.

Los riesgos de la Inteligencia Artificial

Uno de ellos es que recopila mucha información personal, recopila la información personal que es necesaria para que funcionen correctamente, y si no se manejan y configuran adecuadamente, pueden comprometer la privacidad de los usuarios.

Esta información puede ser falsa, puede tener sesgos como los propios servicios de Inteligencia Artificial, muchas veces alertan a los usuarios antes de utilizarlo y tenemos, por tanto, que verificar la información que nos trasladan. Esto lo podemos hacer contrastando en otras fuentes para así asegurarnos que la información que nos están dando es verdad.

Pueden ser utilizadas para generar contenidos falsos, desde noticias, imágenes, vídeos, que es lo que se conoce como Deepfake, y además de manera cada vez más realista. Lo hemos visto en la noticia reciente en Extremadura, en el que una madre denunció a unos chavales, habían utilizado una APP para crear imágenes realistas de carácter sexual con las caras de varias niñas del colegio.

Otro de los riesgos es que están expuestos estos servicios es a ataques de ciberseguridad y accesos no autorizados, como cualquier otro sistema informático. Si un atacante logra vulnerar esas medidas de seguridad y consigue acceder al sistema y a los datos que están almacenados e incluso manipularlos, puede generar bastantes situaciones conflictivas.

Ya sabemos que cuanto mayor es la dependencia que tenemos de estos sistemas, también mayor es el daño que se puede ocasionar manipulándolos o modificándolos.

¿Nos puede manipular la opinión?

Con la inteligencia artificial en ocasiones el servicio que nos prestan hace que las decisiones que tomamos respecto a estos servicios son difíciles de entender.

Es decir, por ejemplo, las que afectan a nuestra privacidad y seguridad. Por poner un ejemplo, aceptamos que nos muestre contenidos personalizados en base a la información que tiene de nosotros, pero es tanta la información que puede recoger y cómo la analiza, que puede obtener información sensible sobre nosotros y puede utilizarla de manera que no terminamos de entender sus implicaciones, y esto nos puede condicionar, por ejemplo, a la hora de predisponernos hacia una compra o predisponernos a tener una determinada opinión.