Las desigualdades en el acceso de los países a la Inteligencia Artificial preocupan a la Organización de las Naciones Unidas (ONU). Un informe presentado este jueves en Nueva York alerta de que tan solo Francia, Canadá, Italia, Alemania, Japón y Reino Unido forman parte de las grandes iniciativas para la gobernanza mundial de la IA. La gran mayoría de miembros de la ONU están al margen, sobre todo países de África e Hispanoamérica.
El informe, que se votará en unos días, propone medidas para regular la IA. El comité de la ONU que ha preparado el informe lo copreside la española Carme Artigas, exsecretaria de Estado de España. Informativos Telecinco ha podido hablar con ella durante su estancia en Estados Unidos para analizar los puntos que trata el documento.
Una de las conclusiones del informe de la ONU es la necesidad de un marco global de regulación de una tecnología que está en manos de muy pocas empresas, de las grandes tecnológicas. La ejecutiva y empresaria española de 56 años, ahora copresidenta del órgano consultivo de alto nivel de la ONU sobre IA (organismo que ha presentado el citado informe esta jornada), ha reflexionado sobre los riesgos de esa concentración del poder tecnológico.
"Estamos de acuerdo en que la IA es una tecnología absolutamente disruptiva, que puede aportar muchísimas grandes oportunidades -en desarrollo científico, en acceso a la salud pública o en objetivos de desarrollo sostenible-, pero que si no se gobierna puede exacerbar la concentración de poder, las diferencias y las desigualdades, así como aportar ciertos riesgos también de seguridad. Por tanto, no sería el buen uso que queremos de la tecnología. Queremos que esa tecnología se desarrolle para el bien de la Humanidad y poder garantizar esas grandes oportunidades", ha explicado Carme Artigas, considerada una de las mayores expertas en la aplicación práctica del big data y la inteligencia artificial de España.
Los principales motores del desarrollo de IA son algunos grandes grupos tecnológicos, principalmente de EEUU o China. ¿Qué supone que esté concentrado en tan pocas manos? ¿Es un riesgo también a la hora de fijar reglas a nivel mundial? La experta lo tiene claro: "Sí. Lo que estamos detectando es que, a pesar de que existe buena voluntad y códigos éticos por parte de las compañías desarrolladoras, además de iniciativas internacionales que están intentando acordar marcos de gobernanza, existe un gran déficit de esta gobernanza a nivel mundial".
"Un déficit en tres grandes aspectos; el primero, en transparencia, precisamente porque el poder está concentrado en compañías privadas, y no en la universidad y en la academia, por lo que no tenemos transparencia de los riesgos y de las oportunidades reales de esa tecnología, porque nadie está obligado a publicarlas; también hay un déficit de responsabilidad, de poder asignar, a lo largo de la cadena de valor, quién es responsable de qué, por si un modelo alucina o hay un impacto negativo o sesgo de ese modelo; y también hace falta, hay un 'gap', de inclusión, porque todo este desarrollo tecnológico se hace en el norte global, con datos del norte global, con capacidades de computación y chips del norte global, y nosotros hemos detectado, por ejemplo, que hay 118 países del mundo que no están ni sentados en la mesa en ninguno de los foros, por lo que pensamos que hay una gran necesidad y una urgencia en poner sistemas de gobernanza para poder controlar los usos de la IA y poder también exigir esa transparencia y responsabilidad que es importante para el desarrollo de esa tecnología que consideramos que es positivo", precisa Carme Artigas.
Más allá de esas consecuencias positivas que puede acarrear la IA, a veces se dibujan escenarios catastrofistas. ¿Existen riesgos y malos usos que debemos atajar y que preocupan más que otros? "Evidentemente, los riesgos ya los conocemos. Por tanto, los que llaman a decir que tenemos que esperar un poco más para saber las consecuencias, antes que poner en marcha mecanismos de gobernanza, pues no hace falta, porque ya sabemos que podía ocurrir", precisa Carme Artigas.
"Yo creo que hay riesgos conocidos en el ámbito de la seguridad y por eso hay distintas conferencias internacionales que están abordando la propia seguridad de la tecnología, porque no nos olvidemos que es una tecnología que necesita esos cortapisas y esos salvaguardas y que puede seguir evolucionando sin agencia humana -esto es quizá lo que distingue a esta tecnología de las otras conocidas en el pasado-. Y también tenemos riesgos de presente. Que los hemos vivido; los derechos fundamentales, la desinformación, la manipulación de la opinión pública y de los sistemas democráticos... Yo creo que es imprescindible abordar estos problemas ya en este presente y no esperar a que haya un desarrollo futuro de esta tecnología en otros ámbitos o con otra dimensión", precisa la experta en IA.
¿Cuál sería la referencia? ¿Llegamos a tiempo para poner coto a los malos usos de la IA? ¿Hay países que lo están haciendo mejor que otros? "Aquí yo quiero distinguir muy claro tres cosas que a veces se confunden: una cosa es la ética, otra es la regulación y otra es la gobernanza", explica Carme Artigas.
"La ética son los parámetros que se están definiendo para ver cuándo una compañía o un gobierno hace un uso correcto y deseable de esa tecnología. Y la gobernanza es la respuesta cuáles son esos mecanismos que tenemos que poner en marcha para asegurarnos de que las empresas y los gobiernos se portan bien. La regulación es uno de esos mecanismos, y en Europa hemos liderado el primer reglamento internacional de la IA. Pero no es el único mecanismo. Y tampoco podemos pretender que haya una ley exactamente igual para todo el mundo. Lo que estamos intentando es que haya foros de debate para que haya convergencia regulatoria, para que haya otros mecanismos, como puede ser un panel científico parecido al del cambio climático para que haya evidencias científicas y transparencia en el desarrollo de esa tecnología en sus oportunidades y en sus riesgos. También proponemos que esto no sea una lucha de estándares entre unos países y otros, y ahí, en ese sentido, haya una coherencia. Y también pensamos que hay una gran responsabilidad para poder utilizar la IA para los objetivos de desarrollo sostenible y para poder ayudar también el desarrollo de capacidades en el sur global. Por tanto, lo que estamos hablando es de gobernanza, de mecanismos que pueden ser regulación, pero también pueden ser incentivos de mercado. Al final lo que queremos es que esto trabaje para el bien común".
Hay muchas preguntas por resolver en el campo tecnológico ¿La IA es hoy en día un área tan sensible de competición como lo fue la carrera de armamento en la Guerra Fría, por ejemplo? ¿La competición entre grandes potencias se centra ahora en aspectos como el desarrollo de la IA? ¿Qué riesgos tiene ese tipo de competencia? "Sí, la tecnología es muy poderosa, evidentemente, en todo este desarrollo tecnológico y en esta carrera, digamos, por la competencia, por el liderazgo. Hay un componente altamente geopolítico; desde las materias primas, a las capacidades de computación e incluso a las ubicaciones de los centros de datos y un consumo excesivo de energía y de agua que, sin duda alguna, no es sostenible", explica Carme Artigas.
"El informe también pone el foco ahí, en la necesidad de que estos sistemas sean sostenibles y que sean coherentes en el desarrollo tecnológico con la sostenibilidad del planeta. Yo creo que todos estos son debates que están ahí y que no podemos dejar en manos pocos poderes privados, ni tampoco de gobiernos autoritarios. Tenemos que poner límites. Para nosotros hay un mínimo básico. Se puede competir entre países, en relaciones y entre empresas, se puede competir por el mercado, por el talento y por el liderazgo tecnológico, pero no podemos competir ni por la seguridad ni por los derechos humanos", sentencia la experta.
Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail
Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento