El catedrático de la Universidad Politécnica de Cataluña (UPC) e investigador del Barcelona Supercomputing Center Jordi Torres considera que a la inteligencia artificial se le atribuyen más capacidades de las que tiene actualmente y la defiende.
"Todo el mundo habla de ella como si fuera un demonio y la IA no es ni buena ni mala, depende de en qué manos está", ha asegurado el autor del libro La inteligencia artificial explicada a los humanos (Plataforma Editorial), en una entrevista con EFE.
En su obra, evoca una vocación pedagógica hacia aquellos que mucho han oído hablar de esta tecnología con diversas aplicaciones, pero poco saben de ella. Pretende explicar de forma comprensible para todos los públicos qué es, qué puede hacer y qué no puede hacer.
Ya hoy en día, la IA es capaz de generar falsas noticias, suplantar identidades o modificar fotografías de personas para que aparezcan desnudas, pero también puede afinar diagnósticos en técnicas de imagen, simular cómo interactúa una proteína con un medicamento o predecir escenarios de la crisis climática.
Al fin y al cabo, la IA “no es más que la evolución de la informática y de la digitalización que hace decenios que se está produciendo, pues todo es un continuo” en el que, de diferentes maneras, se han perpetrado los malos y buenos usos de las tecnologías, reflexiona Torres.
Si todo es una evolución de lo que ya conocemos, ¿por qué generan tanto temor social algunas aplicaciones de la IA? "Tenemos el foco mal puesto, la gente tiene una visión de la inteligencia artificial de las películas, de escenas distópicas en la que las máquinas tienen el control, y esto, ahora, es imposible", asegura el divulgador.
Aunque se han logrado avances muy importantes, existe una idea social equivocada, pues "la IA no piensa, siempre hay un humano detrás que aprieta el botón", aclara. Para que esto sí ocurriera en un futuro, "serían necesarios unos cuantos Einstens", bromea el investigador del BSC-CNS.
No esconde que ese objetivo es "el Santo Grial de los investigadores". Sin embargo, Torres no ve margen para aumentar mucho más las capacidades de la IA a corto plazo. Un ejemplo es el ChatGTP, que ya tiene varias versiones pero no deja de ser un producto elaborado con "fuerza bruta".
Es decir, con "muchos datos procesados con grandes algoritmos por supercomputadores con unas potencias enormes, que permiten hacer miles de millones de operaciones", pero todo tiene límites. Ya se han consumido gran parte de los datos que están en Internet y "los nuevos deben ser generadas por humanos, y esto lleva tiempo".
Otro ejemplo que el divulgador recoge en el libro es el de los coches sin conductor, que no acaba de llegar: "Aunque en la codificación y el entrenamiento de las redes neuronales se tienen en cuenta un gran número de variables, siempre hay imprevistos".
"Hacen fallar al sistema porque este carece de la capacidad de improvisación y del sentido común del ser humano", justifica el catedrático. Para Torres, es importante regular pero "también es necesaria la concienciación".
"Es como el armamento, que está regulado, pero luego puede aparecer un grupo Wagner y hace un mal uso", compara. Considera que esa concienciación debe ser del conjunto de la sociedad y de los que trabajan en informática.
"Por ahora no existe un código deontológico de informáticos, como sí ocurre en otras profesiones", recuerda al respecto del uso de herramientas de inteligencia artificial que están más al alcance de todo el mundo.