La inteligencia artificial ofrece grandes esperanzas en campos como la medicina, pero cada vez más se habla del riesgo de un mal uso de esa tecnología. Hablamos con una de las voces más autorizadas para saber cuáles pueden ser esos escenarios. Nos referimos a Geoffrey Hinton. Se le conoce como el padrino de la IA; impulsó las redes neuronales que explican la explosión actual de estas tecnologías. Ha ganado el premio de computación más prestigioso, el premio Turing. Desde hace unos meses trata de advertir de posibles riesgos de una IA fuera de control.
Geoffrey Hinton estuvo trabajando hasta hace un año en Google. Dejó su puesto y desde entonces le hemos escuchado en muchas ocasiones alertar de los riesgos que supone la inteligencia artificial. ¿Qué le hizo adquirir esa idea? ¿Cuándo empezó a pensar que podía ser un riesgo? "Me di cuenta de que la computación digital que usamos en grandes modelos de lenguaje es en realidad mejor que el tipo de computación que usamos en nuestro cerebro", explica Hinton en Informativos Telecinco.
"Pueden compartir lo que han aprendido de manera muy eficiente. Nosotros somos muy pobres a la hora de compartir lo que hemos aprendido. Lo hacemos hablando entre nosotros y es un medio muy pobre en comparación con lo que pueden hacer estos modelos. Una de las amenazas es que se hagan más inteligentes que nosotros y tomen el control. Es la amenaza de la que más hablo porque mucha gente cree que es ciencia ficción. Y no es ciencia ficción", detalla el experto.
Es difícil imaginar cómo las máquinas pueden hacerse con el control, ¿cuál sería una de esas maneras? "En general, las cosas más inteligentes controlan a las cosas menos inteligentes. Les damos la capacidad de crear metas y de establecer objetivos secundarios. Si quieres llegar a Norteamérica, un subobjetivo es ir al aeropuerto. Ese objetivo secundario te permite planificar más fácilmente. A las inteligencias artificiales les estamos empezando a dar esa capacidad de crear subobjetivos. Y hay un subobjetivo muy obvio que debes crear si quieres cumplir tus metas. Y es tener más control. Probablemente desarrollarán el deseo de tener más control solo para poder hacer las cosas que queremos que hagan", subraya Hinton.
¿Quiza engañen a los seres humanos? "Han aprendido todo de nosotros acerca del engaño, y ahora los sistemas de inteligencia artificial ya pueden engañar. Y son buenos. Serán mejores que nosotros cuando sean superinteligentes. El problema es que si piensas que vas a tener un gran interruptor y vas a poder apagarlo cuando se vuelva peligroso no te darás cuenta de cuándo empiezan a ser peligrosos. Y serán capaces de persuadirte de que apagarlo es una mala idea", precisa el informático británico.
¿Pensaba Hinton en estas amenazas cuando comenzó a trabajar con esta tecnología? "Pensaba que lejos, en el futuro, algo así podía pasar. Hace poco pensaba que faltarían unos 50 años. Ahora creo que está más cerca. Mi apuesta es que en un período de entre cinco y 20 años hay un 50% de posibilidades de que veamos una superinteligencia. Soy bastante pesimista en el largo plazo. Soy optimista acerca de que los gobiernos empiecen a hacer algo. Pero quizá sea demasiado tarde y no veo voluntad de regular su uso militar", sentencia el experto.
Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail
Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento