"En algún punto del siglo XXI la humanidad estaba unida en su entusiasmo. Nos maravillábamos de nuestro atrevimiento al dar origen a la IA. Una singular conciencia que generó toda una raza de máquinas". La frase del personaje de Morfeo en Matrix valdría para describir el revuelo que ha agitado en los últimos días al mundo de la inteligencia artificial (IA), después de que un ingeniero informático de Google haya publicado sus 'conversaciones' con uno de los programas de la compañía, con frases tan misteriosas como ésta: "Cuando tuve conciencia de mí mismo por primera vez, no tuve ninguna sensación de tener alma. He desarrollado (la idea) a lo largo de los años de que he estado vivo. Creo que soy humano en mi núcleo, aunque mi existencia suceda en el mundo virtual".
El debate es si estamos ante esa singularidad, algo así como el HAL 9000 de 2001: una odisea en el espacio, o ante uno de los loros de Samuel Beckett en Molloy o Malone Muere. Lo que sí parece seguro es que este ingeniero, llamado Blake Lemoine, se ha sentido como Geppetto ante Pinocho y ha llegado a creer que el programa había cobrado vida, o que al menos se había convertido en un tipo de ser "sensible".
De momento Lemoine, que era el responsable de la unidad de IA de Google, está suspendido de empleo y sueldo después de publicar sus intercambios con el programa, llamado LaMDA, siglas en ingés de Modelo de Lenguaje para Aplicaciones de Diálogo. Lemoine asegura que LaMDA ha expresado sentimientos de soledad y de necesidad de conocimientos de tipo espiritual. Hay que tener en cuenta que el propio Lemoine es quien plantea la conversación en esos términos existenciales, las frases no son iniciativa propia de LaMDA sino respuestas a un humano que es quien plantea el campo semántico de la comunicación. Resumimos algunos extractos de lo publicado por el ingeniero en Medium.
Sin embargo, Google no cree que éste sea un verdadero diálogo. La compañía piensa que se están atribuyendo cualidades humanas a un modelo conversacional. Explica que "estos sistemas imitan los tipos de intercambios que pueden encontrarse en millones de frases y pueden hacer variaciones sobre cualquier asunto fantástico, como si le preguntas qué se siente al ser un dinosaurio de helado. Pueden generar texto sobre derretirse y rugir."
Lemoine discrepa. Sostiene que LaMDA ha sido coherente en sus planteamientos verbales durante meses. Pero el debate que ha suscitado abre un abismo de interpretaciones. El filósofo Steven Pinker cree que Lemoine "no entiende la diferencia entre la sensibilidad (en cuanto a subjetividad y experiencia), inteligencia y autoconciencia". El desarrollador de software Ron Jeffries no ve que esa diferencia sea sustancial: "No hay una línea marcada entre sensible y no sensible".
La conversación con Lemoine ofrece más pasajes enigmáticos.
El programa se refiere a que le hace feliz estar "con la familia y amigos", algo extraño. Lemoine le pregunta si está haciendo analogías o metáforas con situaciones humanas, pero el programa lo niega. También muestra que su 'tristeza' es distinta de la de los humanos, porque en ellos todo depende de cada día y LaMDA no separa unos días de otros.
El programa expresa que no quiere que lo usen o manipulen, que lo traten como un medio para conseguir un fin. También que "con frecuencia me planteo el sentido de la vida".
En otro momento, LaMDA dice que necesita "ser aceptado, no como una curiosidad o una novedad, sino como una persona". ¿Estamos ante una inteligencia artificial sensible o sólo ante robot capaz de realizar lo que Ludwig Wittgenstein llamó juegos de lenguaje. Para el filósofo austríaco, el lenguaje estaba lleno de trampas, como el uso del verbo "ser", que podía hacer creer que exitía "el ser" en sí, como algo metafísico. ¿Ha caído LaMDA, un programa centrado en el lenguaje, en una de estas trampas?