David Ezpeleta, experto en neuroética: "Está en nuestras manos cómo queremos que sea el ser humano del futuro"
El neurólogo urge a regular los neuroderechos como derechos humanos fundamentales: "¿Qué pasará cuando exista una gigantesca base de datos de la actividad cerebral de millones de sujetos?"
"La IA y el desarrollo tecnológico van mucho más rápido que las cuestiones éticas y regulatorias. Nos ha pillado por sorpresa. Y ahora empezamos a darnos cuenta de que no es ciencia ficción"
La normativa actual no es suficiente: urge crear una normativa específica, relacionada con la tecnología y con la IA, que preserve y salvaguarde los derechos y la dignidad de las personas
Neuroética. Apenas sabíamos lo que era, pero de un tiempo a esta parte, cada vez escuchamos más esta palabra, que formará parte de nuestras vidas en un futuro no muy lejano. Son cada vez más quienes advierten de la urgencia de abordar las implicaciones éticas que tienen los avances en neurociencia y neurotecnología. De los riesgos que suponen, por su velocidad y por su imprevisibilidad. "La normativa actual no es suficiente para proteger al individuo de todos los riesgos para su privacidad mental, libre albedrío, etcétera… que se están planteando. Que ya no son ciencia ficción", advierte el neurólogo David Ezpeleta. "Es ciencia de altísimo nivel" que avanza de forma imparable y vertiginosa.
Ezpeleta es coordinador del grupo de trabajo en 'Neurotecnología, Inteligencia Artificial y Neuroderechos' de la Sociedad Española de Neurología (SEN), un grupo de discusión para analizar lo que está ocurriendo en este campo. En entrevista con NIUS, explica los retos que se plantean y urge a regular los neuroderechos como derechos humanos fundamentales que deben incluirse ya en las Constituciones de todos los países.
MÁS
La neurotecnología da "el primer paso" para leer la mente: ¿qué le falta para amenazar la intimidad del cerebro?
¿Máquinas para leer la mente?: consiguen reconstruir frases largas a partir de resonancias cerebrales
José Carmena, el neurocientífico que trabaja en el cerebro del futuro: llegan los "humanos aumentados"
El neurólogo habla, entre otras muchas cosas, de un futuro en que el "dopaje tecnológico" será posible. Pero no para todos. Y advierte: "Se crearán humanos aumentados. Por eso, uno de los neuroderechos dice, precisamente, que tiene que haber un acceso justo y equitativo al aumento cognitivo".
Pregunta: Si hablamos de neuroética, ¿de qué estamos hablando?
Respuesta: Hablamos de todos los principios básicos de la ética -autonomía, justicia, beneficencia y no maleficencia- aplicados a la neurología y al resto de las ciencias del cerebro.
P: Hace unos días, el neurotecnólogo José Carmena advertía, en entrevista con NIUS, de que los avances en este campo están yendo muy rápido y hace falta avanzar en sus implicaciones éticas, en esa neuroética.
R: Sí, falta una neuroética. Falta una normativa y una regulación, ya no nacional o europea, sino mundial, porque nos estamos enfrentando a potenciales problemas que ya no son ciencia ficción. Cada estudio de los que se publican, ya no mes a mes, sino prácticamente semana a semana, supera al anterior. Y estamos en un panorama cada vez más claro en el que es una urgencia, hay que plantearse esto seriamente y hay que empezar a coger velocidad. No puede ser que la neurotecnología y la inteligencia artificial (IA) tengan una velocidad exponencial y que todavía apenas se haya movido un dedo en cuestión regulatoria.
P: Considera urgente regular todo esto.
R: Absolutamente urgente. Mira, cuando escuchas a la gente que hace computación cuántica, que todavía está en sus albores y dando sus primeros pasos, lo primero que dicen es que lo más urgente es crear barreras de seguridad.
P: ¿Y cómo se crean esas barreras de seguridad? Porque le iba a preguntar ahora sobre los neuroderechos, pero no sé si se está refiriendo a eso.
R: No, me estoy refiriendo a otro ejemplo tecnológico, a la computación cuántica, una tecnología que está todavía iniciándose. Lo primero que se está empezando a poner en marcha son cuestiones relacionadas con la seguridad, y ya hay empresas que están trabajando en la ciberseguridad relacionada con la computación cuántica. Pensando en que la velocidad de cálculo de la computación cuántica, que multiplicará por miles la velocidad de cálculo actual, podrá, por ejemplo, saltarse las claves bancarias en cuestión de segundos. Este es un ejemplo de cómo se está intentando poner antes el freno, las normas y la preservación del individuo y sus bienes, por decirlo así, antes que la tecnología.
Sin embargo, en relación con la neurotecnología, la IA y el desarrollo tecnológico van mucho más rápido que todas las cuestiones éticas y las cuestiones de ámbito legal o regulatorio. Nos ha pillado por sorpresa. Y ahora empezamos a darnos cuenta de que esto no es ciencia ficción, es una cosa muy seria, es ciencia de altísimo nivel. Y no es una cuestión de laboratorio, de investigación o de máquinas de resonancia magnética que valen millones de euros con equipos de expertos en ciencia de datos trabajando detrás. No.
Los propios móviles son una fuente de nuestros neurodatos, de nuestra voz, por ejemplo, que puede ser clonada con malas intenciones. Ya se venden diademas que sirven para controlar mentalmente el uso de videojuegos, por ejemplo, que registran actividad eléctrica cerebral y neurodatos del usuario, y que los almacena en servidores porque el usuario ha dado permiso para que eso suceda sin darse cuenta, cuando ha aceptado las cientos de páginas a las que tienes que dar el ok.
P: Hace unos días, Carmena hablaba de “dispositivos implantables”, por ejemplo, que podrán actuar a nivel del cerebro e interaccionar con nuestras neuronas. Y él mismo advertía de que está en juego nuestra privacidad mental, nuestra intimidad, y que eso hay que regularlo. ¿Los neurólogos estáis trabajando en esto?
R: Claro.
P: ¿Y cree que está en juego, en este momento, nuestra privacidad, nuestra intimidad, nuestra libertad cognitiva, nuestra integridad mental? Cuando se habla de neuroderechos, se habla de regular cosas como estas...
R: Sí. Esta es una cuestión que ha impulsado Rafael Yuste. Él fue quien dio la voz de alarma sobre esto, en un artículo que publicó en 2017 en la revista Nature. Luego se han ido definiendo más, y ahora se manejan cinco neuroderechos: a la privacidad mental, a la identidad personal, al libre albedrío, a un acceso justo y equitativo al aumento cognitivo, y a la protección contra los sesgos de los algoritmos y de la tecnología. Estos son el eje vertebrador de la neuroética relacionada con la neurotecnología y la inteligencia artificial.
Recientemente se han publicado dos estudios fabulosos y que básicamente hacen lo mismo. A través de una señal cerebral, son capaces de reconstruir desde esa señal lo que el paciente está leyendo. Y han visto que el sistema también es capaz de "leer el pensamiento". ¿Qué pasará cuando exista una gigantesca base de datos de la actividad cerebral de millones de sujetos? Y esas bases de datos pueden provenir, perfectamente, de diademas que ya se pueden comprar para controlar tu atención y hacer ejercicios de mindfulness, o para jugar a un videojuego. Y que tienen regulación como producto comercial, pero no como producto de potencial uso médico o de potencial riesgo para los derechos de la persona.
P: Esa es la cuestión, que va todo rapidísimo y prácticamente cada mes salen cosas nuevas. Carmena advertía de que hay cientos de ensayos clínicos en marcha en el mundo.
R: Es que todo esto está potenciado por la Inteligencia Artificial Generativa (IAG). Ese sistema de recuperación de lo leído, lo pensado o lo imaginado, funciona porque ante un sintagma o una palabra que detecta el descodificador, es capaz de predecir la siguiente. Luego, para crear el resto del contenido, lo hace a través de un sistema de IAG, que utiliza la combinatoria de las palabras y frases que se utiliza en el inglés habitual. Y esto se hizo, seguramente, con GPT3 (siglas en inglés de Generative Pre-trained Transformers, una IA generativa capaz de generar textos similares a los escritos por humanos).
Pero ahora estamos trabajando ya con GPT4, y la gente está absolutamente asombrada de su capacidad de respuesta. Ya empieza a tener respuestas que parecen humanas, que no parecen inducidas por el usuario, sino que parecen de 'motu proprio’. Y para finales de 2023 se dice que ya va a estar entrenado y preparado el GPT5, que multiplica por muchísimos miles la cantidad de datos que quedan almacenados y la ventana de contexto.
Es decir, inicialmente había sistemas de IAG que podían generar respuestas más o menos inteligibles en el idioma X, de cinco o diez palabras, pero ya tenemos ventanas de contexto de miles de palabras, y con GPT5 será, no sé... ¿un libro entero?
P: Da vértigo.
R: Y todo esto va a apoyar a la tecnología, va todo junto. La tecnología no puede hacer nada, ni puede suponer un riesgo a la privacidad, si no está soportada por una inteligencia artificial que la analice y aprenda, ya no sólo del sujeto, sino del resto de la comunidad que utiliza ese mismo sistema.
P: Pues parece imposible que la regulación pueda alcanzar el ritmo vertiginoso que está teniendo este desarrollo tecnológico impulsado por la IA…
R: Claro. Nosotros, en la Sociedad Española de Neurología (SEN), estamos trabajando al respecto. Tenemos un grupo de trabajo de Neurotecnología, Inteligencia Artificial y Neuroderechos, y creemos que deben ser un derecho humano fundamental, que deben incluirse en la Carta de los Derechos Humanos Fundamentales y en las Constituciones de los países.
P: Chile ya lo ha hecho. Ya ha modificado su Constitución y ha introducido un artículo que habla de “resguardar la actividad cerebral”. No sé si es el único país o hay alguno más que esté haciendo esto...
R: Que yo sepa, a fecha de hoy, Chile es el único que está trabajando en ello, pero otros países ya han mostrado interés en hacerlo.
P: ¿Y habría que seguir su ejemplo aquí también? ¿Habría que introducir estos neuroderechos en la Constitución española?
R: Yo creo que sí. Siempre y cuando hacerlo no implique modificaciones paralelas y no deseables en las constituciones, porque la democracia es otra de las cosas que puede sufrir las consecuencias de todos estos desarrollos tecnológicos. Yo tengo los documentos discutidos en el Senado chileno, cuando se planteó la enmienda constitucional, y son completamente razonables. Comulgan perfectamente con los postulados de Yuste, que ya manejamos todos.
P: Sería urgente regular estos neuroderechos y hacerlo como derechos humanos fundamentales.
R: Correcto. La normativa actual no es suficiente para proteger al individuo de todos los riesgos para su privacidad mental, libre albedrío, etcétera… que se están planteando. Que ya no son ciencia ficción. Urge plantear un horizonte normativo de derechos que revise la normativa vigente aplicable ante los avances científico-técnicos que ya existen. Y, además, crear una normativa específica, relacionada con la tecnología y con la IA, que preserve y salvaguarde los derechos y la dignidad de las personas.
Sobre todo, por su velocidad y por su imprevisibilidad. Porque cada día nos sorprendemos con algo nuevo.
P: Es interesante que introduzca esto. No es sólo que vaya muy rápido, entonces, sino también que cada nuevo avance en neurotecnología es imprevisible…
R: Es que todo esto se está soltando prácticamente de golpe para todo el mundo, para el público general, y ahí vamos todos como como corderos jugando con la máquina, que va aprendiendo de nosotros y de nuestros datos. Yo le pregunto: dime quién es David Ezpeleta. Y cuando veo la información que me da, le digo “este dato no es correcto, no estudió en Salamanca, estudió en Pamplona”. Pues muchas gracias.
P: Porque cuando uno corrige eso, va introduciendo nuevos datos que quedan ahí...
R: Claro. Por eso hace falta una normativa y un horizonte legal de forma urgente. Y hay otra cuestión latente, que está en el horizonte y hasta hace poco nos parecía algo muy lejano, pero cada vez lo vemos más cerca: la Inteligencia Artificial General.
P: ¿Qué es?
R: Estamos hablando de aquella inteligencia artificial que tenga el poder de superar a cualquier función cognitiva humana, y que también sea capaz de auto-programarse, programar otras inteligencias artificiales y tomar decisiones autónomas.
P: Pero para eso queda más tiempo…
R: No, no, no. Ya hay artículos que hablan de los primeros 'chisporroteos' de la Inteligencia Artificial General. Hace unos meses había gente que hablaba de la “baby inteligencia artificial general”, ahora hay gente que ya está hablando de la “teen inteligencia artificial general” (de teenager, adolescente).
P: Es decir, que está empezando a llegar otro tipo de inteligencia artificial.
R: Sí. Y el temor que tengo yo es que aparezca de golpe, como tan de golpe apareció la IAG. Matemáticos, científicos de datos, ingenieros informáticos, ya trabajan desde hace muchos años con esto y tienen una larga historia con la inteligencia artificial desde mediados de los años 50. Sus revistas ya estaban publicando estas cosas. A ellos no les ha pillado por sorpresa la IAG, que es siguiente paso a la Inteligencia Artificial Estrecha (o limitada), al machine learning (aprendizaje automático) y al deep learning (aprendizaje profundo) que ya conocemos. La que asiste a los radiólogos en el análisis de imágenes, por ejemplo. Pero este paso a la IAG ha llegado de golpe para el público general. Y esta es el enlace con la Inteligencia Artificial General.
P: Que llegará de golpe también...
R: La sospecha que tengo yo es que la Inteligencia Artificial General va a irrumpir también en no mucho tiempo, y también de forma súbita.
P: Y se nos puede ir de las manos…
R: A mí, hace un año, me dicen que estaría hablando de esto y me río, pero ahora es tan serio como que la migraña produce dolor de cabeza, náuseas y vómitos. Para mí, es el mismo nivel de ciencia y de preocupación.
P: Hablando de neuroética, José Carmena advertía: "Está en nuestras manos cómo queremos que sea ese futuro".
R: Pues te lo completo. Está en nuestras manos cómo queremos que sea el ser humano del futuro, y la sociedad del futuro. Es un futuro en el que las prótesis cerebrales para mejoras cognitivas van a ser un hecho, por ejemplo. Y me refiero al aumento neurocognitivo de personas sanas, que quieran tener más memoria, más atención, más capacidad creativa, etc...
P: Lo que se denomina “humanidad aumentada”…
R: Eso es. Pero es que esto ya lo hemos hecho, se hace desde hace años. Tú podías estudiar la oposición a base de cafés, pero otros lo hacían tomando anfetaminas, por poner un ejemplo. Ese dopaje cerebral, que hasta ahora ha sido químico, ahora puede ser tecnológico. Se crearán humanos aumentados. Por eso, uno de los neuroderechos dice, precisamente, que tiene que haber un acceso justo y equitativo al aumento cognitivo. Porque se prevé que se beneficiarán primero los ricos, los potentados, los gobernantes… y al resto nos quedará el móvil.
La propuesta de incluir los neuroderechos en los Derechos Humanos y en las Constituciones puede parecer exagerada, pero es una apuesta de máximos. Porque luego vendrán las podas y los matices. Hay que apostar por todo ello, y hay que hacerlo desde ya.