Caso Almendralejo: qué debe pasar para que las deepfakes de IA sean delito y qué herramientas tiene la justicia

El caso de las menores de Almendralejo afectadas por el uso de su imagen manipulada para aparecer desnudas y denunciado por sus madres ha alertado a la opinión pública. La Fiscalía alerta de un incremento "absolutamente exagerado" de la difusión de pornografía infantil en la red en los últimos años y, aunque el uso de la Inteligencia Artificial para ello es aún "muy puntual y reciente", teme que se dispare y pueda servir para aumentar ese "negocio ilícito".

La fiscal de Sala de la Unidad de Criminalidad Informática, Elvira Tejada alerta del preocupante crecimiento detectado en el "tráfico de pornografía infantil en la red". El artículo 189 sobre pornografía infantil sí versa sobre imágenes reales o representaciones en las que podría incluirse un caso como este. Los menores están haciendo pornografía infantil con inteligencia artificial, propio de pederastas y pedófilos. Este delito está penado con hasta nueve años de prisión, pero en este caso la realidad es que la creación o difusión de deepfakes sexuales no están todavía incorporadas como delito específico en el Código Penal. Entre los delitos a los que podrían acudir los abogados de las familias se encuentran el de secretos revelados, (art. 197), integridad moral, (art. 173), el derecho a la imagen, al honor o el delito de injurias, todos ellos podrían entrar en el caso de Almendralejo.

Qué dice la ley

La Directiva del Parlamento Europeo y del Consejo sobre la lucha contra la violencia contra las mujeres y la violencia doméstica contempla actuar contra las deepfakes sexuales. El uso del 'deepfake' es un uso no autorizado del derecho a la propia imagen de las personas y en el caso de usarlo en el contexto pornográfico, constituiría una intromisión ilegítima en el derecho al honor. Sobre el caso de Almendralejo la ministra de Justicia en funciones, Pilar Llop, ha manifestado su deseo de que no quede impune la creación y difusión de contenidos generados con Inteligencia Artificial y ha pedido tener en cuenta por encima de todo "la protección penal de las víctimas".

El Código Penal castiga la elaboración, difusión o incluso posesión de material pornográfico infantil "real, técnico o virtual". Es decir, también está penada la "pornografía virtual", aunque la normativa obliga a que sean "imágenes realistas", a que "parezcan reales". "No todo material que refleja una imagen de una persona desnuda es pornografía", deja claro la fiscal Tejada, que explica que, además del realismo de las imágenes, "tiene que haber una clara tendencia lasciva" en su producción y difusión. Su visión del futuro no es optimista porque estamos ante un negocio: "cada vez vamos a tener más supuestos de pornografía virtual", con la duda de si, como hasta ahora, serán siempre imágenes totalmente artificiales, o se incorporará un cuerpo ficticio a imágenes reales, abriendo la puerta a otros posibles delitos como el delito contra la integridad moral.

El Instituto Europeo de Igualdad de Género engloba las deepfakes en la categoría de ciberviolencias. FemBloc, un proyecto de prevención y atención a las violencias machistas digitales también alerta de las

832 procedimientos de pornografía infantil

En su memoria relativa al año 2022, el ministerio público ya constató los "efectos perversos del desarrollo tecnológico" en las agresiones a menores y en la "elaboración y difusión de material pornográfico infantil": se abrieron 832 procedimientos por pornografía infantil a través de las Tecnologías de la Información y la Comunicación (TIC).