París usará cámaras con IA para vigilar los Juegos Olímpicos: así funcionarán y sus límites legales
París instalará vigilancia algorítmica para detectar las amenazas para la seguridad y solo durante la competición
Este sistema entra en colisión con algunos derechos fundamentales, tal y como denuncia Amnistía Internacional
La ley que regula la IA en Europa acota su uso a casos muy concretos y durante un periodo de tiempo fijo
París acogerá la próxima edición de los Juegos Olímpicos, que comenzará el próximo 26 de julio y reunirá a atletas de todo el mundo y millones de visitantes. Uno de los retos más importantes para las autoridades será mantener la seguridad en la ciudad durante la competición. Y es una prioridad en la que llevan trabajando desde hace meses.
Se prevé que lleguen a París más de 11 millones de visitantes, lo que implica un gran reto para mantener la seguridad. En esta línea, el Parlamento aprobó el año pasado la conocida como Ley Olímpica, que permitirá movilizar los esfuerzos necesarios para asegurar los alrededores del río Sena, donde se celebrará la competición.
A los 45.000 agentes de policía y fuerzas armadas se le sumarán más de 20.000 profesionales de la seguridad privada y, como gran novedad, centenares de cámaras y drones equipados con inteligencia artificial. Francia se convierte así en el primer país de la UE en autorizar la vigilancia algorítmica, un sistema un tanto controvertido.
La IA se usará para analizar el vídeo de las cámaras en tiempo real y avisar a la policía en caso de detectar cualquier conducta o situación de peligro. Las autoridades francesas quieren reforzar así el trabajo de los agentes humanos, ya que el país se encuentra en alerta máxima por terrorismo desde el mes de marzo.
El reglamento de Inteligencia Artificial aprobado por la Unión Europea no permite la vigilancia algorítmica, salvo en casos excepcionales y durante un tiempo concreto. Según el documento, se permitirá para prevenir “una amenaza específica, sustancial e inminente para la vida o la seguridad física de las personas o una amenaza real y actual o real y previsible de atentado terrorista”.
Riesgos para la privacidad
La principal controversia del uso de sistemas automatizados reside en los posibles sesgos que tienen estas tecnologías, en función de los datos con los que han sido entrenadas. Según denuncia Amnistía Internacional, las autoridades son las que determinan qué situaciones se consideran peligrosas, y eso puede afectar al “derecho de protesta” e incluso pueden “amplificar la actuación policial racista”.
Otro aspecto a tener en cuenta es que la privacidad podría verse invadida por este sistema de vigilancia masiva. Las autoridades tendrán capacidad para vigilar con gran nivel de detalle todos los acontecimientos que ocurran en el recinto olímpico y alrededores. Eso sí, el sistema no usará reconocimiento facial, a diferencia de lo que ocurre en China, donde hay más de 700 millones de cámaras que vigilan a los ciudadanos.
En cualquier caso, para la ONG este sistema de drones y cámaras con IA sienta un precedente “peligroso que podría desembocar en violaciones generalizadas de los derechos humanos”. Se tendrá que ver el uso que le dan las autoridades francesas y, sobre todo, su eficacia a la hora de detectar amenazas reales que pongan en riesgo la seguridad.
Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail.
Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.