La aparición de una nueva tecnología casi siempre implica que, tarde o temprano, alguien estará dispuesto a trampear con ella y utilizarla para fines que no son los adecuados. Así ha sucedido con la inteligencia artificial y sus avances en los últimos cinco años. Ya nadie duda de que es revolucionaria, y, por ese mismo motivo, conviene conocer su lado oscuro, sobre todo si puede volverse en nuestra contra con suma facilidad.
Los expertos en ciberseguridad y las fuerzas y cuerpos de seguridad del estado llevan tiempo alertando de la progresiva sofisticación de las técnicas de deepfake, la suplantación de identidad o la clonación de voz, tres de las principales amenazas para el usuario. Nos obligan a estar cada vez más alerta ante los mensajes de texto o de correo electrónico que recibimos de nuestro entorno más cercano.
Para un ciberdelincuente con los conocimientos adecuados, clonar alguna de nuestras características identificativas (la cara, la voz o el acento) puede ser tan sencillo como tomar una fotografía o un video en el que aparezcamos, procesarlo con inteligencia artificial y utilizarlo para captar dinero de otras personas.
Sin duda, el avance más alarmante es el uso de deepfakes, una tecnología que permite generar imágenes, videos o audios falsos que parecen auténticos. Estas copias digitales de nuestra fisionomía son tan realistas que, en muchos casos, es casi imposible diferenciarlas de la realidad sin el uso de herramientas especializadas.
Desde el año 2019, los casos de suplantación de identidad que utilizan esta técnica han aumentado conforme la propia estafa alcanzaba cotas de perfección. El fenómeno de los jefes generados por ordenador, desde luego, no es nuevo para las empresas. Un ejemplo emblemático ocurrió en 2019, cuando el CEO de una empresa energética del Reino Unido fue engañado para transferir 220,000 euros a una cuenta bancaria. El ‘gatillo’ que le hizo confiar en su contacto fue una grabación de voz que imitaba el tono y el acento del director de la empresa matriz. Picó, porque creía que estaba hablando realmente con su superior jerárquico, hizo la transferencia y el dinero desapareció. Fue víctima de ‘vishing’, como se conoce a este subtipo de suplantación de identidad a través de la voz.
Ese mismo modus operandi es el que han empezado a usar cada vez más estafadores, en parte gracias a la tecnología de síntesis de voz mediante IA patentada por Eleven Labs, una empresa estadounidense que ha popularizado el uso de réplicas de voz para fines comerciales y recreativos. En menos de 10 minutos podríamos clonar nuestro tono exacto, por ejemplo, para leer un libro. La otra cara de la moneda no es muy diferente: alguien interesado en estafar a alguno de nuestros familiares o contactos cercanos podría copiar y perfeccionar ese rasgo nuestro y utilizarlo para solicitar dinero, transferencias bancarias o cualquier cosa que quisiera, como de hecho ya sucede.
Por desgracia, el phishing ha sido una de las modalidades más habituales de estafa en el mundo digital desde hace ya varios años. Los estafadores envían correos electrónicos que imitan a fuentes confiables para robar contraseñas, números de tarjetas de crédito o direcciones. Con la ayuda de la IA, este tipo de ataque ha pasado al siguiente nivel, gracias a los algoritmos y al perfeccionamiento de los mensajes que los usuarios recibimos.
Basta con imaginar el modus operandi de la clásica estafa de phishing, pero a gran escala. Con las herramientas de la IA, los ciberdelincuentes pueden analizar ingentes cantidades de datos sobre víctimas potenciales y personalizar los mensajes para que parezcan más auténticos, introduciendo en ellos información y detalles muy específicos. La IA puede generar fácilmente millones de correos de phishing con una precisión que asusta.
De hecho, el uso de esta tecnología en el phishing automatizado también protege a los ciberdelincuentes dándoles muchas más opciones. Si un intento de phishing es detectado y bloqueado, el sistema puede ajustarse para crear una versión diferente, refinada, más sólida. Este ciclo exponencial de adaptación continua es lo que hace que sea tan difícil para el usuario medio combatir las estafas basadas en IA, sobre todo las de tipo financiero.
Los ciberdelincuentes ya están utilizando bots creados con IA para analizar los mercados y crear ofertas de inversión adaptativas. Pueden comunicarse con sus víctimas de manera más personalizada que hace apenas tres años. A partir de aquí, opera el esquema clásico: prometen rentabilidades extraordinarias, con la ventaja de que, al haberse ganado la confianza del potencial estafado, es mucho más fácil captar su dinero.