Así es la Ley de Inteligencia Artificial que ya ha aprobado la Unión Europea

  • Esta ley tiene como principal objetivo garantizar la seguridad de los ciudadanos europeos ante los múltiples riesgos de la tecnología

  • Fomenta la comercialización y circulación de los productos y sistemas basados en IA siempre bajo el marco de la seguridad

  • Su aplicación obligatoria comenzará dentro de dos años aunque acabe de entrar en vigor

La Unión Europea ha aprobado la primera legislación que regulará los sistemas de Inteligencia Artificial con el objetivo de poder garantizar la seguridad y los derechos fundamentales de los ciudadanos europeos ante los múltiples riesgos que plantea esta tecnología.

La legislación, que entrará este jueves en vigor, busca regular su uso bajo un marco jurídico uniforme, facilitando con ello la comercialización y circulación de los productos y sistemas basados en IA, sin olvidar la ciberseguridad y el desarrollo tecnológico bajo un enfoque ético.

Esta ley trata de garantizar la seguridad y derechos fundamentales fijados por la UE

Pretende que la adopción de esta tecnología se haga con el ser humano en el centro, con el objetivo de que sea fiable y "garantice un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente", para protegerlos de los "efectos perjudiciales" que puedan derivar de los sistemas de IA.

Tras publicarse el pasado 12 de julio en el Diario Oficial de la UE, el reglamento de la IA entra en vigor oficialmente este jueves, aunque su aplicación obligatoria comenzará en dos años. Para comprender los principales puntos que agrupa esta norma, se ha de tener en cuenta que se ha desarrollado bajo un enfoque basado en los niveles de riesgo que presenta la IA, que se recogen en tres categorías: los sistemas que suponen un riesgo inaceptable, los sistemas de alto riesgo y los sistemas de riesgo limitado.

Las aplicaciones y sistemas de IA que "suponen un riesgo inaceptable" directamente están prohibidos. Aunque el listado es amplio, esta categoría engloba los casos en los que se utilizan sistemas de categorización biométrica que infieren atributos sensibles como la raza, las opiniones políticas y la orientación sexual.

También los sistemas de puntuación social como el utilizado en países como China -que clasifica a los usuarios para otorgar ciertos derechos o sancionar el mal comportamiento- y a técnicas subliminales, manipuladoras o engañosas que buscan distorsionar el comportamiento y perjudicar la toma de decisiones.

No obstante, hay algunas excepciones. Por ejemplo, aunque el uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad está prohibido, sí se podrá utilizar en situaciones concretas y definidas de forma estricta, por lo que deberá haber un permiso previamente autorizado por un juez.

El Reglamento también recoge los modelos, atendiendo en este caso a los de uso general, que entiende como aquellos que se entrenan con grandes volúmenes de datos y a través de métodos como el aprendizaje autosupervisado, no supervisado o por refuerzo. Matiza que, aunque los modelos son componentes esenciales de los sistemas y forman parte de ellos, no constituyen por sí mismos sistemas de IA.

La ley reconoce que pueden tener componentes de IA libres y de código abierto o incluso divulgarse bajo una licencia libre y de código abierto, y destaca en este caso su alto grado de transparencia, pero incide en la necesidad que proteger los derechos de autor en las partes que corresponden a la información sustancial y a los contenidos de las bases de datos con los que se entrenan.

Otro de los objetivos es evitar que se convierta una herramienta para fines malintencionados

Y señala que estos modelos de IA de uso general pueden plantear riesgos sistémicos, que aumentan con las capacidades y su alcance, y pueden surgir durante todo el ciclo de vida del modelo. Esta ley se fija en el proveedor de los sistemas y los modelos de IA, que puede ser el distribuidor, el importador, el responsable del despliegue u otro tercero, y en quien recae la responsabilidad sobre esta tecnología a lo largo de su cadena de valor.

El nuevo reglamento recoge algunos puntos clave que tienen implicaciones directas a nivel de ciberseguridad para los usuarios y aseguran un buen uso, tal y como destacaron en marzo desde la firma Check Point, con motivo de su aprobación por parte del Parlamento Europeo. La norma también busca evitar el uso de la IA con fines malintencionados, como la creación de 'deepfakes' o la automatización de ciberataques, mediante la regulación de ciertos usos de esta tecnología. Esto ayuda a reducir el riesgo de que se utilice como una herramienta de ciberguerra. 

Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.

Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail.