El uso de Deepfakes se dispara un 900%: ¿cómo podemos identificarlos para no ser estafados?
Los vídeos 'Deepfake', la nueva forma de utilizar la cara de los famosos para difundir desinformación y fraudes
La posibilidad de hacerse pasar por otra persona en vídeo o en llamada supone un nuevo reto de las tecnologías
Sigue nuestro canal de WhatsApp y conoce toda la actualidad
Ver a Barack Obama hablando con la voz de Jordan Peele, a Tom Cruise haciendo vídeos graciosos en TikTok o al presidente Volodymyr Zelensky diciendo que Ucrania se rinde son algunos de los ejemplos que nos ha dejado el Deepfake. Se trata de la herramienta capaz de suplantar la cara y el sonido de cualquier persona con tan solo un clic a través de aplicaciones gratuitas. El 96% del contenido que se genera a través de esta aplicación es para el porno, del que muchos han sido víctimas. El contenido pornográfico generado con Inteligencia Artificial -como ha ocurrido con las menores en Almendralejo- continúa planteando dilemas en cuanto a una regulación de esta tecnología.
Y es que las técnicas no paran de mejorar, lo que conlleva un gran peligro. Así se pudo ver cuando la Casa Blanca tuvo que desmentir la supuesta explosión en el Pentágono tras causar miedo entre los estadounidenses. Los vídeos que antes podías detectar como falsos, por la ausencia de parpadeo o la descoordinación entre la boca y el sonido, ahora son todo un reto para Internet. Un tema que ya está afectando a las redes sociales. En enero de 2020, Facebook prohibió los Deepfakes, a excepción de los que se crean para parodiar.
MÁS
La Guardia Civil advierte de 'la estafa del hijo': solo en Cantabria las víctimas han perdido 100.000 euros
Los delitos con Inteligencia Artificial: el nuevo Frankenstein del que ni los niños están a salvo
Caso Almendralejo: qué debe pasar para que las deepfakes de IA sean delito y qué herramientas tiene la justicia
Los fraudes a través del Deepfake
Aunque muchos de los vídeos que se hacen son para el entretenimiento, otros se usan con otro objetivo: el fraude. Ya existen casos reales donde las personas acaban siendo víctimas de una estafa. Tener la capacidad de hacerse pasar por una persona en un vídeo en directo o por teléfono supone una dificultad para detectar si se trata de un ciberdelincuente o de un familiar. Investigadores de la Universidad de Sungkyunkwan demostraron en marzo de 2021 que la mayoría de las APIs de reconocimiento facial actuales pueden ser superadas mediante el uso de deepfakes.
La desinformación y los escándalos falsos pueden causar daños políticos y sociales, ya que se puede manipular la imagen de un personaje público. Dos investigadores del EU Observer informaron de cómo, el 21 de abril de 2021, la Comisión de Asuntos Exteriores del Parlamento holandés mantuvo una conversación telefónica con alguien que creían que era un político ruso de la oposición pero que, en realidad, era un deepfake de voz, así lo mencionan desde ‘Seon’.
¿Cómo se puede detectar una estafa con Deepfake?
De momento, la mayoría de los deepfakes muestran algún detalle o error que nos da una pista para detectar que es falso. Según el Instituto Nacional de Ciberseguridad, existen una serie de pautas que nos pueden ayudar para saber si es un contenido manipulado:
- Busca las incongruencias: Fíjate en la piel de la persona ( si es demasiado lisa o demasiado arrugada), en las sombras, los lunares faciales o el poco parpadeo.
- Revisa la imagen: La mayoría de los deepfakes se centran en sustituciones faciales, por lo que los cambios en el resto del cuerpo no se aplican y pueden darnos pistas.
- Afina el oído: Si el sonido no coincide con la imagen o detectas algún tono fuera de lugar es muy probable que sea una falsificación.
- Pregúntate si tiene coherencia: Muchas veces se usan los vídeos para degradar la reputación de alguien o para generar alarma sobre un tema.
- Fíjate en la duración del vídeo: Suelen ser vídeos cortos, ya que el objetivo es simular que es real. Cuanto menos dura, más posibilidades de que la simulación parezca real.