¿Y si un chatbot pudiera guiar al estudiante cuando tiene dificultades con los deberes, en cualquier momento? Un equipo de profesores de la Universidad de Girona ha trabajado en una guía práctica sobre la incorporación de la IA en el ámbito educativo. En él se proponen posibles aplicaciones pedagógicas y se discuten también las limitaciones de la tecnología.
“Podemos crear profesores que respondan 24 horas los 365 días al año entrenados específicamente para resolver los problemas de una manera muy concreta”, explica José Antonio Donaire Benito, coautor de la guía y profesor del Departamento de Geografía de la Universidad de Girona. De hecho, ChatGPT y otras tecnologías ya permiten personalizar chatbots, que “podemos entrenar para que respondan de una determinada manera”.
En ningún momento se plantean sustituir por completo a los docentes humanos ya que, para el profesor, la educación “tiene un componente performativo y genera muchos elementos de relaciones interpersonales imposibles de reproducir a partir de la tecnología”. Por eso proponen “complementar” la clase presencial con la ayuda de la IA generativa. De hecho, ya existe desde hace mucho tiempo el modelo de “la clase invertida”, en la que las materias se enseñan fuera de clase y durante la lección presencial se resuelven las dudas.
“Los profesores tenemos la desventaja de que tenemos que dirigirnos a una audiencia que no es uniforme y, sin embargo, nuestra explicación sí que lo es”, por eso la IA puede “aprender de los errores del estudiante y orientarlo”. Entonces, al insistir en los fallos que comete, puede ayudar al alumno a superarlos. Un ejemplo de ello sería el aprendizaje de idiomas, donde la IA podría ir corrigiendo los errores gramaticales del estudiante.
La guía surge también de la idea de que “probablemente vamos hacia un futuro donde la IA será omnipresente”, por eso plantean formar a los estudiantes en un “uso inteligente” de las herramientas. Para el profesor, se tienen que enseñar tres lecciones imprescindibles. La primera es a preguntar, ya que es “imprescindible” generar contexto para que el prompt dé un resultado satisfactorio. La segunda es a contrastar la información, ya que los modelos pueden generar respuestas “verosímiles pero que no son verdaderas”. Y, por último, entender que la IA muchas veces “acumula todos nuestros sesgos y estereotipos”. Para solventarlo, es necesario “aprender a detectarlos y luego a modificarlos”, explica Donarie.
Entre las líneas rojas está la evaluación mediante IA. Allí existe el límite legal (y ético) de la Unión Europea “que lo prohíbe explícitamente”. Según Donaire, “un hecho tan trascendente como es la evaluación no puede depender del sesgo que tiene siempre un sistema”. Los exámenes, por lo tanto, continuarán siendo una cuestión humana.
Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail.
Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.