Escena familiar hace unas semanas. “¡Mira, qué pasada!”, le digo a mi hija de 16 años. No salgo de mi asombro. “Mira este programa. Le preguntas cualquier cosa y te lo escribe”. Todo un descubrimiento para un cateto tecnológico como yo. “¿Cómo se llama?”, pregunta mi hija. “ChatGPT”, respondo. Enseguida me doy cuenta de que también soy un cateto como padre.
Ella se fue repitiendo entre dientes “ChatGPT, ChatGPT”. Imagino que llegó a su cuarto y lo escribió en un papel para no olvidarse. Le podía ser muy útil para sus próximos trabajos escolares. Con mi revelación, yo había metido la pata hasta el fondo. Pero ella se iba a enterar de todos modos. Durante los días siguientes, ChatGPT dominaba el boca a boca. Inundó los titulares de prensa. “Una revolución”, anunciaban algunos. “Algo nunca visto desde Google y el Iphone”, proclamaban otros.
No era para menos. Al igual que mi hija, los compañeros de trabajo no salían de su asombro, aunque fruncían el ceño: “Escribirá noticias por nosotros, será el fin del periodismo”. Yo lo puse en práctica. Un domingo se murió uno de mis ídolos periodísticos. “Escribe una biografía de Dominique Lapierre”, redacté en chatGPT. Todo muy correcto y estándar, hasta la frase final: “Le concedieron el premio Nobel de la Paz”. No me cuadraba, pero tampoco me fio de mí mismo. Lo verifiqué. Era falso.
En las siguientes semanas la euforia no descendió. Los expertos aclaraban que esos errores se subsanarían pronto. El chatbot tiene "aprendizaje acumulativo y profundo", explicaban. Aprende a la velocidad de la luz gracias a miles de incautos que escribimos en él. Cada vez falla menos. Ya aprueba los exámenes para ser médico en Estados Unidos, cuenta chistes cada vez más graciosos y es capaz de componer una ripiosa poesía.
¡Cómo convivir con el chatGPT!, exclaman en universidades, colegios, empresas y medios de comunicación. Cómo evitar el plagio de los alumnos, cómo escribir comunicados inspirados o noticias que parezcan realistas. Cómo afectará a miles de puestos de trabajo. Una retahíla interminable de incógnitas.
Pero la pregunta que a mí me rondaba era otra, un poco menor: ¿y si un escritor sin escrúpulos le pide a la máquina una novela a medio camino entre García Márquez, Vargas Llosa y Pablo Neruda? ¿Podría coronarse futuro Nobel de Literatura? ¿Detectaríamos el engaño?
No pretendo ser ese escritor pero, por curiosidad, le pido a chatGPT que me redacte un párrafo sobre la soledad mezclando el estilo de los tres Nobel latinoamericanos.
Resultado: "La soledad se había apoderado de la ciudad, como una niebla espesa que se adueñaba de cada rincón. Era una soledad densa y opresiva, como un personaje oscuro y tenebroso que se escondía en las sombras. Pero entre las sombras, un hombre caminaba con determinación, luchando contra la soledad con astucia e inteligencia. Sin embargo, en su corazón late una tristeza profunda, una soledad que nace de la ausencia de amor, que él recitaba versos poéticos con una pasión incontenible".
Es un poco flojo, pero como la máquina aprende, seguro que en pocos meses brillará por su prosa florida. Eso intranquiliza. Algunos expertos dicen que no hay motivo. Y dan sus razones.
En una reciente entrevista con NIUS, Carles Sierra, el presidente de la Asociación Europea de Inteligencia Artificial acotaba el problema: “Todos estos sistemas generativos no entienden lo que están haciendo. Se limitan a imitar, pero no, realmente, a entender. (…) Cuanto más largo sea el texto, se aprecian más incoherencias entre el inicio y el final. Porque son siempre las últimas frases las que determinan las siguientes. Y, en ese proceso, se pierde la coherencia general del discurso”.
Más tranquilidad. El escritor y neurobiólogo Kenan Malik abundaba en la misma línea en The Guardian: “Para una computadora, el significado es irrelevante. ChatGPT "sabe" (al menos la mayor parte del tiempo) lo que parece significativo para los humanos, pero no lo que es significativo para sí mismo. Es, en palabras del científico cognitivo Gary Marcus, un “mímico que no sabe de qué habla”.
¿Qué dicen los filósofos? Algo similar. Leemos a Byung Chul Han, en No cosas: “La inteligencia artificial es apática, no tiene pasión. No tiene horizontes que se vislumbran en vez de estar claramente definidos. (…) No piensa porque nunca está fuera de sí misma. (…) Lo afectivo es esencial para el pensamiento humano. (…) La inteligencia artificial es incapaz de pensar, porque no hace el idiota”.
Me quedo con esta última frase. Parece que la creatividad está muy ligada a nuestras pequeñas locuras. El psiquiatra Carl Jung, pionero del psicoanálisis, creía que la creación no es resultado del intelecto sino del instinto de juego: “La mente creativa juega con los objetos que ama”.
Después de todo, parece que estamos a salvo. Incluso es buena noticia: solo lo auténticamente original será humano. Del resto sospecharemos. La sospecha siempre es buena. De hecho, ¿habré escrito realmente yo este artículo?