Los países del G7 han aprobado un código de conducta para empresas e instituciones que desarrollen inteligencia artificial, con el objetivo de combatir los riesgos derivados de esta tecnología. Es más laxo que la ley que se plantea aprobar la Unión Europea sobre IA y además es voluntario.
El código conducta o normas ha sido acordado por Canadá, Francia, Italia, Alemania, Gran Bretaña, Japón y EEUU y consta de 11 puntos para desarrollar una IA segura y de confianza.
Una de las medidas que incluye estas normas es que las empresas creen "mecanismos de autentificación" como "marcas de agua" digitales que permitan a los usuarios identificar los textos, imágenes o vídeos generados por inteligencias artificiales.
Las normas son de carácter voluntario e insta a las empresas a tomar medidas para identificar y evaluar riesgos de esos sistemas inteligentes y promover el desarrollo de sistemas de IA "seguros y fiables" a nivel internacional, así como "gestionar sus riesgos", según la declaración conjunta, firmada por los siete países que instan a comprometerse con su cumplimiento.
Las empresas que desarrollen Inteligencia Artificial tendrán que publicar informes sobre las tecnologías que están usando e invertir en controles de seguridad eficientes y seguros para evitar brechas que pongan en riesgo a usuarios y entidades de todo el mundo.
El objetivo de este código de conducta es promover el desarrollo de sistemas de IA "seguros y fiables" a nivel internacional y a "gestionar sus riesgos", según la declaración conjunta, que también llama a todos los actores del sector de la IA a comprometerse a su cumplimiento.
La nueva normativa se unirá a futura ley de inteligencia artificial que prepara la UE y coincidirá con la cumbre esta semana en Reino Unido para conseguir que los sistemas de Inteligenccia Artificial sean fiables.
La UE, a diferencia de Estados Unidos, reacio a controlar el desarrollo de la IA, prepara la aprobación de una ley con normas más estrictas evaluando el riesgo del uso de la IA, en alto, moderado o leve. Los sistemas de riesgo alto, con mayor poder de influencia sobre usuarios o entidad, mientras que a los sistemas de riesgo moderado y de riesgo leve. A todos se les exige transparencia en la gestión.
Así como la limitación a los sistemas que supongan una potencial amenaza para los usuarios como por ejemplo la prohibición de sistemas de identificación biométrica.
Sigue toda la Información de Informativos Telecinco en nuestro canal de Telegram