El semáforo de la ley europea de Inteligencia Artificial: clasificará los riesgos por estos colores

En 2023, el desarrollo de la inteligencia artificial generativa comenzó a transformar muchos ámbitos de nuestra vida y nuestro trabajo. Pero a pesar de sus muchos beneficios, las consecuencias de todo su potencial también han despertado la preocupación de los expertos.

En respuesta, la UE adoptó el 8 de diciembre la Ley de Inteligencia Artificial, la primera ley del mundo que regula exhaustivamente estas tecnologías, con el objetivo de fomentar la innovación y proteger al mismo tiempo los derechos fundamentales, la democracia, el Estado de Derecho y la sostenibilidad medioambiental.

Distinciones en la ley y sanciones

La ley, que se aplica a todos los Estados miembros de la UE, clasifica la IA en cuatro niveles que permiten o prohíben su uso en función del riesgo que suponga para los seres humanos, e identifica los sistemas de alto riesgo que sólo pueden utilizarse si se demuestra que respetan los derechos fundamentales.

Se espera que la ley sea ratificada por los gobiernos y la Eurocámara en febrero de 2024 y entre en vigor en 2026. Las sanciones son desde 35 millones de euros o el 7% del volumen de negocios global hasta 7,5 millones o el 1,5% del volumen de negocios para aquellas empresas que incumplan la normativa, dependiendo de la infracción y del tamaño de la empresa.

Ámbito de aplicación

Lo primero que hace el Reglamento es definir su ámbito de aplicación. Se tratará de armonizar el enfoque propuesto por la OCDE y se buscará que el sistema de IA establezca unos criterios suficientemente claros para distinguirla de los sistemas basados en programas informáticos más sencillos.

El documento también señala que el ámbito de aplicación del Reglamento no irá más allá de la legislación de la UE y no debe afectar a las competencias de los Estados miembros en materia de seguridad nacional. También establece que el Reglamento no se aplicará a los sistemas utilizados exclusivamente con fines militares o de defensa. El acuerdo señala que el Reglamento no se aplicará a los sistemas de inteligencia artificial utilizados exclusivamente con fines de investigación e innovación.

El acuerdo también establece criterios de protección, incluida una categorización de los sistemas de alto riesgo, para garantizar que el Reglamento no se aplique a los sistemas de IA que probablemente no den lugar a graves violaciones de los derechos fundamentales.

La Comisión Europea, de entrada, va a clasificar estos riesgos con un semáforo de cuatro colores. El rojo indica un nivel de riesgo inaceptable y las herramientas que se cataloguen aquí estarán prohibidas; por ejemplo, las que puedan manipular el comportamiento o el aspecto de las personas, o la generación de falsos desnudos.

A partir de ahí, la ley emplea tres colores más, de mayor a menor riesgo, que conllevarán más o menos reglas en función del nivel de peligro. Por ejemplo, la inteligencia artificial tendrá que respetar los derechos de autor y decir si bebe de alguna obra ya existente. Los sistemas de IA que solo planteen un riesgo bajo también estarán sujetos a obligaciones de transparencia muy limitadas, como revelar qué contenidos (por ejemplo, fotos, música, etc.) genera la IA, de modo que el usuario pueda tomar una decisión informada sobre su uso posterior.

Uso en actuaciones policiales

Se aclara en Bruselas que determinados usos de la IA plantean riesgos que se consideran inaceptables y estarán prohibidos en la UE. Entre las prácticas prohibidas por el acuerdo provisional figuran la manipulación cognitiva del comportamiento, el rastreo indiscriminado de imágenes faciales procedentes de Internet o de cámaras de CCTV, el reconocimiento de emociones en el lugar de trabajo y en centros educativos, la evaluación de ciudadanos, el acceso a datos sensibles como la orientación sexual o las creencias religiosas mediante clasificación biométrica, y algunas actuaciones policiales de vigilancia.

En la UE, la normativa policial ha sido uno de los temas delicados. En este contexto, se han acordado una serie de enmiendas a la propuesta original de la Comisión, teniendo en cuenta la necesidad de mantener su capacidad de utilizar la IA en su actividad principal.

Estas enmiendas cuentan con las salvaguardias adecuadas y pretenden reflejar la necesidad de mantener la confidencialidad de los datos operativos sensibles relacionados con sus actividades.

Por ejemplo, se ha introducido un procedimiento de emergencia para permitir a las fuerzas y cuerpos de seguridad desplegar, en caso necesario, herramientas de alto riesgo que aún no hayan sido sometidas a una evaluación de conformidad. Sin embargo, también existe un mecanismo específico para garantizar la protección de los derechos humanos fundamentales.

En cuanto a la utilización de sistemas biométricos a distancia en tiempo real en lugares accesibles al público, se permitirá su uso en los servicios policiales en circunstancias excepcionales.

El acuerdo también establece salvaguardias y limita estas excepciones a los casos de víctimas de determinados delitos, la prevención de amenazas reales, existentes o previsibles (por ejemplo, actos de terrorismo) y el registro de personas sospechosas de cometer los delitos más graves.

En consonancia con las nuevas normas sobre IA generalizada y la clara necesidad de aplicarlas, la Comisión Europea está creando una Oficina de IA para supervisar estos modelos de IA más avanzados, promover normas y prácticas de ensayo y garantizar la aplicación de normas comunes en todos los Estados miembros de la UE.

Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.