El mal uso de la Inteligencia Artificial ya se ha incorporado a nuestro día a día. Aplicaciones que en malas manos sirven para desnudar a niñas y a mujeres, para suplantar identidades, que falsean imágenes de políticos y famosos favoreciendo la propagación de bulos plantean un desafío a nuestras sociedades.
Hace poco, una veintena de menores sufrieron en Badajoz la manipulación de sus fotos... Y hace sólo tres días un pedófilo fue detenido por desnudar con esta tecnología a una chica con discapacidad. La facilidad con la que funcionan estos sistemas, capaces de realizar millones de operaciones en tiempos imposibles para cualquier ser humano pone en alerta a autoridades, padres y profesores.
Ya hay empresas que están trabajando para detectar estas manipulaciones. Una de las más conocidas, la deepfake, que en el 96% de los casos en los que se usa y circulan por redes es de contenido pornográfico. Distorsionan la realidad, difunden falsos discursos creando la alarma social y estados de opinión interesados.
Ante esta realidad una empresa española de Telefónica trabaja para identificar, con diversos patrones, más allá de los biométricos, si el que está al otro lado en tiempo real, en una videollamada, por ejemplo, es la persona que dice ser o imágenes creadas por la IA para robarnos datos o cometer otras ilegalidades.
La potente tecnología, ya lo han advertido los expertos, puede ser una herramienta para desarrollar la Ciencia, el aprendizaje y otros aspectos de la vida humana, pero también un riesgo para el orden social, la estabilidad política, económica e incluso la supervivencia de la Humanidad.