Las campañas políticas en redes sociales generadas con IA han causado cierto revuelo: sobre todo por el hecho de que las haya publicado un partido político desde su cuenta oficial. Hasta ahora, eran los usuarios particulares los que difundían este tipo de campañas.
El nivel de realismo que alcanzan las nuevas tecnologías en la generación de imágenes y vídeos hiperrealistas está impulsando también la regulación en esta materia. Por eso, el Consejo de Ministros ha aprobado hoy un anteproyecto de ley para regularlo. España se convertiría así en el segundo país europeo en tener una ley de buen uso de la IA, basada en los principios de Ley de IA (AI Act) de la Unión Europea, que acabará de entrar en vigor en agosto para los chatbots de uso general. Pero, ¿cómo afectará al uso de estas tecnologías y a la publicación de contenido?
Resaltando la capacidad de esta tecnología para usos buenos como “la investigación del Alzheimer”, el ministro para la Transformación Digital y de la Función Pública, Óscar López, ha enfatizado que la IA puede también “ servir para difundir bulos, mentiras, esparcir odio y atacar a nuestra democracia”.
La primera pregunta es bajo qué condiciones se puede publicar una imagen creada con IA. La ley, en este sentido, se centra en aquellas imágenes, audios o vídeos que imitan o suplantan de alguna forma a personas, objetos, lugares, entidades o sucesos reales. Sí que se podrán publicar en redes sociales, pero tendrán que estar correctamente etiquetados como IA, de tal forma que no puedan llevar a equívoco.
Todo ello lo gestionará la Agencia Española de Supervisión de la IA (AESIA), que publicará los requisitos concretos para cumplir con el etiquetado. De esta forma se busca evitar la confusión que algunos ‘deepfakes’ hiperrealistas pueden llegar a causar en la persona que los recibe. De no cumplir con la ley, se podría incurrir en una “infracción grave”.
La Ley de IA de la Unión Europea, que entrará en vigor el 2 de agosto de 2025 para modelos de IA de uso general (como vendrían a ser ChatGPT o Grok, por ejemplo), exigirá también marcas de agua y garantizar la transparencia: tanto a usuarios como a proveedores de servicios de IA.
¿Qué significa eso? Pues que el contenido generado con IA deberá poderse verificar y la responsabilidad estará también sobre el tejado de los desarrolladores de estas tecnologías. Las marcas de agua podrán ser visibles o algorítmicas, pero en cualquier caso deberían facilitar las tareas de verificación.
Más allá de todo esto, “determinados contenidos generados por IA deben etiquetarse de manera clara y visible, a saber, los deepfakes y el texto publicado con el fin de informar al público sobre asuntos de interés público”, explican desde la Comisión Europea. Esto incluiría también, a priori, los contenidos hiperrealistas que se han compartido recientemente en redes sociales.
Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail.
Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.