La neurotecnología da "el primer paso" para leer la mente: ¿qué le falta para amenazar la intimidad del cerebro?

"¿No sería fabuloso que existieran máquinas para leer la mente y transcribir el pensamiento? Este estudio nos acerca a ese escenario". Lo advertía, hace unos días, David Rodríguez-Arias Vailhen, profesor de Bioética en la Universidad de Granada, al comentar el estudio en el que científicos estadounidenses presentaban una interfaz capaz de reconstruir frases largas a partir de resonancias cerebrales. Es decir, capaz de descodificar la mente de personas sin que lleguen a articular palabra, a través de imágenes de su cerebro. Lo que comúnmente se conoce como “leer la mente”.

Y sí, quizá sería fabuloso, sobre todo para personas con alguna discapacidad o enfermedad que les impide hablar, pero él mismo advertía también de los riesgos que puede implicar “que una máquina pueda acabar leyendo tu mente, una vez entrenada”. Por ejemplo, se preguntaba si sería “posible que, de manera involuntaria y sin tu consentimiento (por ejemplo, mientras duermes) pueda ir traduciendo retazos de tu pensamiento".  

Este estudio demostró que no, que para hacerlo, se requiere la cooperación de la persona. Si no coopera voluntariamente, no funciona. Pero tras este vendrán otros, más sofisticados. El riesgo está ahí. "Nuestra mente ha sido hasta ahora la guardiana de nuestra intimidad. Este hallazgo podría ser el primer paso para que en el futuro esa libertad se viera comprometida”, advierte Rodríguez-Arias.

Y es aquí donde entra en juego la neuroética, que tendrá un papel cada vez más importante en el futuro. Aunque los avances en neurociencia y neurotecnología van tan rápido, gracias a la inteligencia artificial (IA), que es difícil seguirles los pasos. “La tecnología va muy por delante de la ética. Falta una neuroética, una base ética de todo esto. La gente tiene que sentarse a hablar. Está en nuestras manos cómo queremos que sea ese futuro”, advertía en entrevista con NIUS José Carmena, catedrático de Ingeniería Electrónica y Neurociencia en la Universidad de California-Berkeley.

Pero los propios especialistas en neuroética no acaban de tener claro si hay que preocuparse o no, todavía, por estudios como este que les contamos. ¿Suponen ya una amenaza para nuestra intimidad? ¿Está en juego nuestra privacidad mental? “No quiero desatar el pánico, pero el desarrollo de tecnologías sofisticadas y no invasivas como esta parece estar más cerca de lo que esperábamos”, advierte el especialista en bioética Gabriel Lázaro-Muñoz, de la Facultad de Medicina de Harvard. “Creo que es una gran llamada de atención para los políticos y el público general”, zanja en la revista Nature.

¿Es pronto para preocuparse?

Adina Roskies, especialista en Filosofía de la Ciencia de la Universidad de Dartmouth cree, sin embargo, que es pronto para preocuparse. Los escáneres fMRI como el utilizado en este estudio, dice, no son portátiles, lo que dificulta escanear el cerebro de alguien sin su cooperación. Los propios autores del ensayo, Alexander Huth y Jerry Tang, de la Universidad de Texas, advertían de ello también.

En su trabajo, comprobaron que el modelo entrenado con los datos de una persona no descodifica bien los datos de otra, lo cual indica que se requiere la cooperación del individuo para que funcione. “Como las interfaces cerebro-computadora deben respetar la privacidad mental, probamos si la decodificación exitosa requiere la cooperación del sujeto, y descubrimos que se requiere su cooperación tanto para entrenar como para aplicar el decodificador", leemos en el estudio.

Es decir, que los investigadores no pudieron crear un decodificador que funcionara en todos ellos. Y creen que no será fácil hacerlo. Huth explica, en Nature, que será más difícil desarrollar un decodificador universal según vaya habiendo mapas más detallados de los cerebros de las personas. Pero por si acaso, Tang advierte: “El cerebro de nadie debería ser decodificado sin su cooperación”. Él y Huth han pedido a los legisladores que aborden ya esta cuestión, para tener claro en el futuro cómo podrán utilizarse legalmente las tecnologías de lectura mental.

Francisco Pereira, neurocientífico del Instituto Nacional de Salud Mental de EE. UU., advierte de que el futuro de la neurotecnología no está escrito. "Todavía no sabemos lo precisos que pueden llegar a ser los decodificadores ni si podrán acabar siendo universales, en lugar de específicos para un individuo", explica en Nature“Depende lo únicos que creas que son los humanos".

Llegan los "neuroderechos"

El hecho es que la interfaz desarrollada por Tang y Huth abre puertas a lo desconocido. "Nuestro estudio demuestra que el lenguaje continuo se puede decodificar a partir de grabaciones cerebrales no invasivas, lo que permite futuras interfaces cerebro-computadora multipropósito", advierten. Y en ese "multipropósito" está la clave. ¿Con qué propósitos podría utilizarse este avance en el futuro?

Lo mismo ocurre con los cientos de ensayos en neurotecnología que hay en marcha en todo el mundo. En principio, hablamos de neurotecnología aplicada al tratamiento de enfermedades o discapacidades, es decir, para mejorar nuestra salud. Pero los límites a su uso no están claros, porque es un campo incipiente que no está regulado todavía.

Aunque hay neurocientíficos que llevan años trabajando en esto, en los llamados “neuroderechos”. Es el caso del español Rafael Yuste, que trabaja en Harvard y es pionero en este campo. Los neuroderechos son definidos como “derechos humanos específicamente referidos al uso y aplicaciones de las neurotecnologías”. Entendiendo por neurotecnología “el conjunto de tecnologías que permiten visualizar, manipular, registrar, medir y obtener información del cerebro y del sistema nervioso con el objetivo de controlar, reparar o mejorar sus funciones”.

Lo explican, en este artículo, expertos del Instituto de Filosofía del CSIC, un grupo interdisciplinar que trabaja sobre ética, ciencia y sociedad. En él hablan de la "urgencia de regular los neuroderechos" y enumeran varios: a la privacidad, intimidad, libertad cognitiva, integridad mental y continuidad psicológica.

Chile reforma su Constitución para "resguardar la actividad cerebral"

Chile es pionero en este campo. Acaba de modificar su Constitución para incluir los neuroderechos, convirtiéndose en el primer país en hacerlo. Pero no será el único.

El artículo 19.1º de su Constitución ahora dice así: “El desarrollo científico y tecnológico estará al servicio de las personas y se llevará a cabo con respeto a la vida y a la integridad física y psíquica. La ley regulará los requisitos, condiciones y restricciones para su utilización en las personas, debiendo resguardar especialmente la actividad cerebral, así como la información proveniente de ella”.

Y ese país está elaborando además un proyecto de ley sobre la protección de esos neuroderechos y de la integridad mental. En ese proyecto, los neuroderechos se definen como “nuevos derechos humanos que protegen la privacidad e integridad mental y psíquica, tanto consciente como inconsciente, de las personas del uso abusivo de neurotecnologías”.

Volviendo al estudio de Huth y Tang, Adina Roskies insiste: es una tecnología demasiado difícil de usar todavía, y demasiado inexacta, para representar una amenaza en la actualidad. Y duda también de que valiese la pena dedicar tanto tiempo y dinero a entrenar un decodificador para un individuo con cualquier propósito que no sea restaurar habilidades de comunicación perdidas. “No creo que sea hora de empezar a preocuparse”, dice en Nature. Y añade: “Hay muchas otras formas en que el gobierno puede saber lo que estamos pensando”. Lo cual tampoco genera mucha tranquilidad.