¿Se imaginan una aplicación que crease textos de la nada? Pues ya es una realidad. La inteligencia artificial ha dado de nuevo un paso adelante. ChatGPT es una aplicación gratuita, capaz de escribir textos de cualquier tema y argumentarlos, en apariencia, de forma convincente. Desde su lanzamiento a fines de noviembre, ya ha sido utilizada por más de un millón de personas de todo el mundo. Para ello hay que abrirse una cuenta con email en chat.openai.com, y lanzarse a hablar con la máquina.
Creada por OpenAI, una de las empresas líderes en inteligencia artificial, y respaldada por Microsoft, ChatGPT está habilitada para mantener conversaciones, traducir textos y, lo más sorprendente, generarlos. Los usuarios la utilizan para inventar chistes, escribir historietas o redactar correos electrónicos. De hecho, cada vez hay más textos generados por inteligencia artificial en Internet.
La aplicación es capaz de escribir varios párrafos que, en un primer vistazo, parecen coherentes. El problema viene cuando te das cuenta de que, en realidad, lo que hay detrás es una máquina, incapaz de discernir lo que es cierto y lo que no, por lo que es probable que escriba multitud de inexactitudes, aunque formalmente estén correctamente escritas.
Lo cierto es que ChatGPT abre la puerta a un nuevo panorama dentro del mundo académico. Los alumnos disponen ahora de una nueva herramienta para realizar sus trabajos, algo que los profesores tendrán que tener en cuenta a la hora de evaluarles. ¿Cómo sabrán si un texto está escrito por un alumno o una máquina?
NIUS ha entrevistado a Carles Sierra, director del Instituto de Investigación en Inteligencia Artificial (IIIA) del Consejo Superior de Investigaciones Científicas (CSIC) y presidente de la Asociación Europea de Inteligencia Artificial.
Pregunta. ¿Qué es el ChatGPT? ¿Cómo funciona y cómo es capaz de hacer lo que hace?
Respuesta. Todos estos sistemas que se basan en el aprendizaje profundo lo que persiguen es construir un modelo que, delante de una pregunta que se parece a otras preguntas que están en el conjunto de entrenamiento, genere una respuesta que se parezca a las respuestas que había en el conjunto de entrenamiento. Esto se consigue a través de muchísimos ejemplos de textos, de frases que se suceden unas a otras y situaciones de preguntas / respuestas. Son sistemas que han sido entrenados con millones de libros y que, por lo tanto, en los modelos que construyen tienen la capacidad de generar frases que son gramaticalmente correctas. Tienen la apariencia de que las ha construido una persona, cuando en realidad son combinaciones correctas de frases anteriores que estaban en el conjunto de entrenamiento. El sistema no entiende lo que está haciendo, que es manipular palabras, que, matemáticamente, podríamos decir que son interpolaciones.
P. ¿Estamos ante una aplicación nueva en su género dentro de la Inteligencia Artificial?
P. OpenAI lleva tiempo generando diferentes sistemas generativos. Sistemas que se basan en secuencias. Es decir, yo te doy una frase de entrada y genero una frase de salida. Si esta frase de salida la vuelvo a poner en la entrada, tengo dos frases de entrada y una tercera de salida. Haciendo esto, puedes construir párrafos o páginas enteras de texto a partir de una frase con la que has empezado. Lo que está haciedo es buscar entradas históricas que el sistema ha aprendido, esas secuencias de frases a las cuales se parece más. Y, en aquella frase a la que le seguía, lo que hace es modificarla un poco para que siga a la que tiene delante en ese momento. Se está readaptando. Es como hacer una mezcla de todos los libros de la historia. Pero, insisto, todos estos sistemas generativos no entienden lo que están haciendo. Se limitan a imitar, pero no, realmente, a entender.
P. ¿Generan textos formalmente más perfectos que los que puedan hacer los humanos?
R. Son textos plausibles que, si uno los lee, parecen hechos por un humano, sí. El resultado es muy sorprendente, pero si sigues, te das cuenta que el sistema no está entendiendo. Había una aplicación de OpenAI en el que le dabas dos o tres líneas de datos biográficos tuyos y te completaba tu página de Wikipedia. Yo lo probé. Le di unas cuantas líneas de mi currículum y lo que resultó fue un texto correctamente escrito y comprensible, pero todos los hechos que estaban relatados allí eran falsos. Nada correspondía a mi persona. Por tanto, esto tiene el peligro de que la gente vaya metiendo esta información en la Wikipedia y al final esta se vaya contaminando con información que no es correcta.
P. ¿Qué supone una aplicación como esta dentro del mundo académico? ¿Va a suponer un antes y un después o no va a ser tan determinante?
R. Pienso que se trata más de entretenimiento y de ver hasta dónde llegan estos sistemas de aprendizaje profundo de generar textos que sean comprensibles. El ChatGPT no es tan interesante como las aplicaciones, por ejemplo, de traducción automática, que son más útiles. El hecho de poder escribir una frase en un idioma o decir algo que se pueda transcribir, se traduzca y genere voz en otro idioma tiene aplicaciones fantásticas, más que el ChatGPT, francamente.
P. ¿Cómo se puede saber si un texto está generado gracias a la inteligencia artificial? ¿En qué se diferencia de algo escrito por un humano?
R. Es un tema de concordancia. A medida que van pasando frases y se van alejando de la primera, se ven discordancias, contradicciones, cambios de referente. Cuanto más largo sea el texto, se aprecian más incoherencias entre el inicio y el final. Porque son siempre las últimas frases las que determinan las siguientes. Y, en ese proceso, se pierde la coherencia general del discurso.
P. Lo cierto es que aumenta el riesgo de que los alumnos presenten trabajos que no han elaborado ellos.
R. Exacto. Si tu antes le decías a un alumno que te hiciera una redacción de un día en el zoo, podías tener dudas de si lo había hecho él o su hermano mayor o su padre. Ahora ocurre un poco lo mismo. La diferencia es que, si ha copiado algo de internet, existen sistemas que comprueban el plagio. Pero esto con el ChatGPT no ocurre, porque este sistema te genera un texto nuevo, por lo que se hace más difícil saber si el alumno, genuinamente, ha escrito esa redacción o no la ha escrito. Lo mismo que si antes se lo escribía el hermano mayor, el profesor no lo podía saber con certeza.
P. Entiendo que la forma de evaluar tendrá que cambiar desde que los profesores sean conscientes de que los alumnos disponen de estas herramientas.
R. Sí, habrá que organizar el trabajo en el aula de otra manera, hacer grupos o controlar el acceso a estas herramientas para que se verifique que hay una creatividad por parte de los alumnos. El trabajo cómodo de que traigan una redacción de casa para luego corregirla va a tener que cambiar.
P. ¿Hasta qué punto puede mermar la capacidad de creación de los alumnos?
R. Esto habría que discutirlo con más calma. Todos estos sistemas que generan diseños gráficos a partir de una frase en el que se pide dibujar una cosa a lo mejor es un input interesante para un creador al estar dándole ideas a partir de las cuales él pueda crear sus propias creaciones. El problema de todo esto es que todos estos sistemas provienen de internet y, de alguna manera, detrás hay creadores humanos. Y si luego estos se utilizan en sistemas generativos para producir un resultado que va a ser una mezcla de lo que han creado otros humanos, estos no van a ver un duro de lo que se está generando por estos sistemas. Y es un tema habrá que abordar.
P. ¿Cuál cree que va a ser lo siguiente que pueda ofrecer la inteligencia artificial al mundo educativo?
R. La gran aplicación de la inteligencia artificial en el mundo educativo es lo que se denomina la educación adaptativa. Cómo adaptar los contenidos educativos a cada individuo. Y en esto se lleva trabajando desde los años 60. Últimamente, con el uso de la informática y de la recopilación de muchísimos datos es posible utilizar el aprendizaje automático para hacer un modelo de cada alumno, qué es lo que sabe y lo que no, y utilizar datos históricos de otros estudiantes para decir: “Alumnos parecidos a este, si les pone este tipo de problemas, se demuestra que mejoran”. Es decir, a partir de datos anteriores podemos adaptar qué es lo que tiene que hacer un estudiante a continuación para mejorar su nivel de aprendizaje.
P. Da la sensación de que en el último año han cristalizado proyectos dentro de la inteligencia artificial y que esto solo es el principio de una gran explosión.
R. Lo que hay es un proceso más bien de aceleración. Ramón Llull en el siglo XIII ya planteaba una máquina para hacer razonamiento de manera automática. Él desarrolló mecanismos de prueba y de argumentación muy interesantes. La historia de la inteligencia artificial viene de muy lejos. Pero la historia moderna parte de los años 50 del siglo pasado. A partir de ahí, ha habido un desarrollo que ha sido lento al principio, que ha tenido momentos altos y bajos, con mucha financiación y con poca… Lo que ha ocurrido es que en los últimos 10-12 años ha habido una aceleración del proceso. Y esto se ha producido porque la computación ha mejorado, los ordenadores son más rápidos,y hay muchos datos disponibles gracias a internet, que ha explotado. Los algoritmos que se está utilizando del aprendizaje profundo vienen de los años 40. Y el avanza importante se ha construido a finales del siglo pasado, con el algoritmo backpropagation, que lo que hace es que estos sistemas aprendan mucho más rápido. Los algoritmos estaban ahí. Si en los años 80-90 las frases que generaba el sistema se parecían poco o estaban poco relacionadas con las anteriores o la gramática no era perfecta, eso ha mejorado ahora por la disponibilidad de datos.