Semana difícil para Google después del lanzamiento de ‘AI Overview’, una herramienta que pretendía mejorar el buscador más usado en Internet con IA generativa. La funcionalidad, que de momento solo está disponible en Estados Unidos, ofrece un breve resumen basado en los resultados de búsqueda.
Sin embargo, muchos usuarios se han hecho eco de las respuestas inverosímiles que les devolvía el buscador. A una persona que no conseguía fijar el queso en la pizza, Google le recomendaba “utilizar pegamento no tóxico”, citando un comentario irónico de Reddit de hace una década. En otro caso el buscador reproducía una información falsa afirmando que “Obama fue el primer presidente musulmán de EE.UU.”. Por no hablar de la “recomendación de salud” que le hacía a otro internauta de “ingerir una piedra pequeña al día”, una afirmación sin fundamento científico.
En la jerga de la IA generativa, a este tipo de errores se les llama “alucinaciones”. Es común que, con datos no contrastados o por falta de información, la IA generativa alucine y genere contenidos que no tienen sentido.
Google ha afirmado que se trata de casos concretos y que “no son representativos”, aunque usarán estos “ejemplos aislados” para continuar mejorando el servicio, según ha explicado la portavoz Meghann Farnsworth a ‘The Verge’. Lo cierto es que la multinacional se ha apresurado a retirar todos los contenidos que los usuarios compartían en redes sociales.
Para Xavier Mitjana, divulgador experto en IA generativa, “Google ha querido correr para posicionarse por encima de la competencia y se ha equivocado”. Con este nuevo servicio, la compañía de California pasaría a ejercer “el rol de editor de contenidos”, algo que no había hecho hasta ahora y que implica mucha más responsabilidad.
“Quizá la inteligencia artificial no esté en ese momento de madurez que a nosotros nos gustaría”, explica el experto. Para conseguir hacer resúmenes de calidad, se requiere un algoritmo capaz de “tener el criterio suficiente para elaborar siempre la mejor respuesta”, algo que se ha visto que no funciona del todo bien en ‘AI Overview’. Para Mitjana, el futuro son modelos de lenguaje más pequeños y especializados: “Aplicada a situaciones concretas, la IA generativa funciona bien”.
El sesgo en las imágenes
No es la primera vez que la compañía de California sufre una crisis de este calado. Hace unos meses tuvieron que retirar temporalmente su IA de generación de imágenes de Gemini tras intentar hacerla más inclusiva.
Una medida que iba en la línea de intentar superar los sesgos de género y raciales, sorprendió a los usuarios generando soldados nazis con rasgos asiáticos o a George Washington negro. Un ejemplo más de lo difícil que es superar los sesgos en estas herramientas.
Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail.
Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.