"Según la tasa de progreso de la IA, podemos esperar que los deepfakes se vuelvan mejores, más baratos, y más fáciles de hacer en un período de tiempo relativamente corto. Los gobiernos deberían invertir en el desarrollo de capacidades de evaluación y medición de tecnología para ayudarnos a mantener el ritmo del desarrollo más amplio de IA y para prepararnos mejor para el impacto de tecnología como esta". La advertencia la hace nada menos que Jack Clark, Policy Director de OpenA.
El término deepfake fue acuñado por primera vez por un usuario de Reddit que creó un foro el 2 de noviembre de 2017. Este foro se dedicó a la creación y uso de software para mostrar a celebridades 'presuntamente' haciendo porno. Ahora hay, al menos, 20 comunidades con 95.971 miembros.
Todo comenzó a finales de 2017. En ese momento comenzaron a aparecer vídeos porno ‘protagonizados’ por famosas. Pero, ¿eran reales? No, se trataban de los denominados deepfake, donde gracias a la inteligencia artificial se consigue cambiar la cara del protagonista del vídeo por otra cualquiera; en este caso, el de personalidades famosas. Aunque no sólo estamos ante un hecho que puede perjudicar gravemente a los famosos, su uso puede extenderse y generar problemas políticos y sociales. Pero los vídeos se han multiplicado en tan solo un año porque ya son miles de vídeos que empiezan a generar decenas de millones de euros en todo mundo.
Nació como una broma, sí, pero el hecho es que modifican el rostro cada vez de forma más real y eso conlleva sus riesgos. El 96 por ciento de estas imágenes trucadas se convierten en vídeos pornográficos muy rentables (con las famosas británicas y las cantangtes surcoreanas entre las más afectadas) que luego provocan que se usen para chantajear. El número total de visitas de vídeo en las cuatro principales web dedicados de pornografía deepfake asciende a 134.364.438 de visitas. Y sí, las mujeres, famosas o anónimas son las principales damnificadas. Y destaca el hecho de que, aunque estamos ante un fenómeno más occidental, el ascenso en lugares como Corea del Sur indica que estamos ante una moda que se difunde por todo el mundo.
Son los datos que desvela el informe elaborado porDeeptrace, un laboratorio especializado en el estudio de este tipo de creaciones, que deja a las claras que los gobiernos tienen ya un miedo real a la influencia de los deepfakes en procesos electorales. Y no es para menos porque el número total de vídeos falsos en línea está aumentando rápidamente, casi un 100%, 14.768, respecto a los 7,964, según datos tomados en diciembre de 2018.
Muchas veces son famosos, pero los tentáculos también llegan a unas personas anónimas a las que les resulta más dífícil, si cabe, desmantelar una vida pararela que cada día parece más real. Y lo que viene, porque el deepfake no deja de perfecccionarse. La claridad, el tono de piel, el parpadeo continuo y los gestos raros aún los distinguen de la realidad pero la velocidad de su desarrollo asusta.
Las aplicaciones de Deepfake se pueden descargar de herramientas o interfaces gráficas de usuario (GUI). La mayoría de estas aplicaciones proporcionan la posibilidad de "intercambiar caras" y voces sintéticas. Muchas de estas aplicaciones requieren conocimiento de programación y procesadores potentes para operar de manera efectiva, no aptos para aficionados. Sin embargo, ya hay tutoriales detallados que proporcionan guías paso a paso para utilizar al máximo aplicaciones populares de deepfake y sus actualizaciones.