Hoy en día, todos conocemos o hemos oído hablar sobre qué es la Inteligencia Artificial y qué puede hacer. Desde redactar textos, proporcionar información en segundos o recrear obras artísticas de pintores célebres. La Inteligencia Artificial ha evolucionado a pasos agigantados en estos últimos años.
Para algunos, el uso de la Inteligencia Artificial es una herramienta muy útil para su día a día y para su trabajo. Para otros, sin embargo, va mucho más allá, ya que hablamos de una tecnología que se hace cada vez más inteligente y lo cual conlleva implicaciones éticas y morales.
Sobre la Inteligencia Artificial, se escuchan a diario infinidad de noticias, y muchas de ellas afirman que, efectivamente, es una tecnología que puede llegar a sustituir en gran parte lo que hacemos los humanos. Es decir, que muchos de los trabajos desaparecerán a causa de la IA. La realidad es distinta, ya que el CEO de Google no piensa lo mismo y sostiene que las IAs no son tan inteligentes como se quiere hacer pensar.
Según el CEO de Google DeepMind, ahora mismo, la Inteligencia Artificial General tendría el equivalente al coeficiente intelectual de un gato doméstico. Damis Hassabis dice que, a pesar de que, la IA puede escribir, dibujar o hacer música de una manera muy similar a la que lo haría cualquier humano, un gato doméstico tendría una inteligencia mayor ya que la Inteligencia Artificial de hoy en día, porque ésta simplemente imita cosas que se encuentran en Internet. Por lo que, de momento, la Inteligencia Artificial está lejos de la inteligencia humana, por una sencilla razón: no es capaz de pensar por ella misma. Aunque éste es el objetivo que persiguen desde DeepMind.
El CEO de Google DeepMind sí que tiene claro que la IA tiene el potencial suficiente para convertirse en uno de los mayores avances de la sociedad a la altura del fuego o la electricidad, ya que supondría un desarrollo enorme para la humanidad. Según Hassabis, será capaz de acelerar descubrimientos y logros importantes en sectores tan esenciales como la investigación científica, medicina, desarrollo de materiales o el cambio climático.
Sin embargo, hace unos días, OpenAI lanzó su modelo ‘o1’. Este modelo se distinguía, según sus creadores, por estar dotado de una cierta “capacidad de razonamiento”. Para demostrar que esta afirmación era verídica, se sometió a esta Inteligencia Artificial a preguntas del examen de Mensa Noruega.
Este examen está diseñado originalmente para detectar superdotados y tras responder correctamente 25 de las 35 preguntas, ha presentado un resultado de coeficiente intelectual de 120, algo que la coloca por encima de algunos humanos.
Esto quiere decir que la nueva IA, no solo podría estar alcanzando capacidades cognitivas similares a las de los humanos, sino que también está comenzando a superarlas en tareas específicas de razonamiento y reconocimiento de patrones. Si las tendencias actuales se mantienen, para el 2026 quieren conseguir un coeficiente superior a 140.
El debate que se establece sobre este resultado es que podría haber hecho “trampas” ya que, este modelo de inteligencia artificial podría estar respondiendo de forma correcta a estas preguntas por una sencilla razón: ha sido entrenada para ello con las preguntas que se les presentan. Los desarrolladores desmienten esto, y sostienen que las preguntas de la prueba a la que fue sometido ‘o1’ no eran públicas y no tenían acceso a ellas. Así, lo que quedaría demostrado es la capacidad de generalización de este modelo de Inteligencia Artificial.
ChatGPT, la aplicación de OpenAI, sostiene que no tiene un coeficiente intelectual, ya que es una Inteligencia Artificial creada para procesar y generar texto. Afirma que no es capaz de realizar tareas cognitivas humanas en el sentido tradicional y que el coeficiente intelectual es una medida que se aplica a humanos pero no es relevante para la Inteligencia Artificial.
Dice que puede realizar tareas que impliquen un razonamiento, procesamiento de la información y solución de problemas, pero que no es capaz de resolverlo de la misma manera que un humano. Lo que hace es utilizar grandes cantidades de datos y patrones para generar con ellos las respuestas. Pero, no tiene conciencia, emociones ni tampoco una comprensión profunda del mundo como lo hacen los humanos, ya que su razonamiento es mecánico y está basado en datos previamente entrenados, mientras que nosotros, los humanos, podemos combinar experiencias, intuición y emociones en nuestro proceso de razonamiento.
Al preguntarle si su coeficiente intelectual sería similar al de un gato, le ha parecido una comparación curiosa ya que, aunque los gatos son muy inteligentes en su propio contexto con habilidades como memoria espacial, aprendizaje a través de la observación y una conexión muy fuerte con su entorno, esta inteligencia artificial funciona de manera completamente distinta. Dicha “inteligencia” se basa en patrones lingüísticos y conocimiento acumulado de diferentes fuentes y no en la experiencia directa o en la interacción con el mundo físico.