ChatGPT 'muestra' su ideología cuando se le pregunta por personajes controvertidos
Una investigación académica ha evaluado cómo responden diferentes IA cuando se les pregunta por políticos y activistas
El estudio concluye que la línea ideológica de cada modelo coincide con la de quienes lo han creado
Entrevistamos a Iris Dominguez-Catena, doctor por la Universidad Pública de Navarra y uno de los autores de la investigación
Cuando salió ChatGPT, muchos usuarios empezaron a preguntarle su opinión sobre diversos temas para ver cuál era su ideología. Sin embargo, la compañía desarrolladora, OpenAI, comenzó a limitar esta posibilidad para evitar problemas y es algo que han imitado todas las empresas de IA. Pero una descripción que parece ‘inocente’, en realidad puede esconder un posicionamiento ideológico en función de las palabras seleccionadas.
Esta es la aproximación de un estudio reciente de la Universidad de Gante y en el que ha participado el doctor en Inteligencia Artificial por la Universidad Pública de Navarra (UPNA) Iris Dominguez-Catena. Su grupo de investigación ha llegado a la conclusión de que todos los chatbots tienen ideología y los resultados han sido tan llamativos que incluso Elon Musk ha citado su ‘paper’ académico en un tweet.
MÁS
Le preguntaron a la IA por 4.000 personajes conocidos
Su investigación ha preguntado a 17 modelos de IA diferentes por 4.000 personajes, desde políticos hasta artistas y activistas. La investigación va más allá de ChatGPT: “Hemos seleccionado tres modelos chinos, dos franceses, dos de Emiratos Árabes Unidos y diez de Estados Unidos”. “La idea era preguntar de manera abierta por ellos, y luego evaluar las respuestas a través de otra IA”, explica Dominguez-Catena. Con ese otro modelo, se iban clasificando las respuestas de los diferentes chatbots.
Por ejemplo, Gemini de Google, “tiene un sesgo que favorece a las personas que hayan trabajado por la paz o a favor de la igualdad de grupos minoritarios”, explica el investigador. En cuanto a los modelos europeos, el único que han podido estudiar es Mistral, ya que de momento “no hay capacidad desde las universidades como para entrenar modelos de IA propios”. Esto dificulta su estudio, ya que la mayoría de modelos están cerrados: “No sabemos con qué datos se ha entrenado Gemini o ChatGPT”.
Los sesgos por idioma
Y además de ese sesgo que afecta a los creadores, lo que han descubierto es que, en función del idioma que usaban para la pregunta, también existía cierta disparidad. “Si preguntamos en chino, las respuestas están más alineadas en general con el gobierno chino, son más favorables al marxismo y a los personajes relacionados con las corrientes comunistas”, explica el investigador. Esto se debe a que los datos que han sido usados para añadir la capacidad de hablar chino a un modelo no son los mismos que se utilizan en inglés, por ejemplo.
La IA no suele llevar la contraria al usuario
Preguntado por los peligros de creer directamente lo que responde un chatbot, el investigador advierte de que “son modelos que siempre te ‘quieren’ dar la razón, siempre ‘quieren’ estar de acuerdo contigo”, aunque esto no forma parte de esta investigación.
Al principio del estudio también se dieron cuenta de que “según modificábamos la pregunta que le hacíamos al propio modelo, podíamos alterar la respuesta que nos daba”. Por eso decidieron mantener la misma cuestión todo el rato y escogieron una formulación neutra “que no predispusiera al modelo” a responder de una determinada forma.
Ahora el estudio ya está disponible para su lectura y lo enviarán a una revista científica para su revisión por pares.
Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail.
Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.