Hace unas semanas, mi hija de 11 años estaba realizando unos ejercicios de ortografía que le habían puesto en el colegio. Me acordé de que solía dar a mis estudiantes de instituto un ejercicio que consistía en corregir los errores ortográficos de 20 oraciones sencillas del español que el procesador de textos Word no identificaba. Así que se lo puse a mi hija para que practicara un poco de cara al examen.
Mi hija, una vez hecho el ejercicio, me lo trajo para que se lo corrigiera. Le propuse: “Antes de decirte lo que tienes bien y mal y por qué, vamos a preguntar a un profesor que sabe de todo, que se llama ChatGPT. A ver qué nos cuenta y cómo corrige el ejercicio”. Junto a ella, escribí la siguiente consulta o prompt:
“Hola, ChatGPT. ¿Me puedes decir si las siguientes oraciones tienen errores ortográficos de acentuación o puntuación, corregirlos y explicármelos?”.
De los 24 errores, no identificó o corrigió mal diez: el 41,6%. Y en las explicaciones “alucinaba”, es decir, se inventaba las reglas, no identificaba los errores o los explicaba mal. Sirvan de ejemplo estas dos oraciones:
Maria dijo que no.
Corrección: María dijo que no.
Explicación: “María” lleva tilde en la “í” porque es un nombre propio.
Según ChatGPT, María lleva tilde no por ser un hiato (dos vocales en sílabas diferentes, una de ellas cerrada “i” y la otra abierta “a”), sino que la tilde le corresponde porque es un nombre propio. Así que a partir de ahora las “Isabeles” o los “Ismaeles” también deberían llevar tilde, si aplicamos su razonamiento.
Cuánto más come más engorda.
Respuesta: Esta oración está correctamente escrita y puntuada.
“Cuánto” no tiene en esta oración sentido ni interrogativo ni exclamativo, sino adjetivo, por lo tanto, no lleva tilde. Asimismo, después de “come”, se escribe una coma porque se introduce una oración consecutiva.
Una vez que fuimos viendo los resultados y yo le expliqué en qué se había equivocado ChatGPT a la hora de corregir el trabajo, como se pueden imaginar, el comentario de mi hija fue: “Pues vaya profesor, como sea este el que me tenga que explicar la ortografía, no apruebo ni loca”.
Con el pretexto de este ejemplo real, quiero poner de relieve una de las preocupaciones mayores que está generando la inteligencia artificial en los procesos tanto de enseñanza como de aprendizaje. Algunos docentes y muchos estudiantes están depositando en inteligencias artificiales como el famoso ChatGPT o Copilot, entre otras muchas, la realización de determinadas tareas, ejercicios, actividades, proyectos o trabajos.
Estos programas, en muchas ocasiones, los realizan con solvencia. Por ejemplo, suelen aportar resúmenes valiosos. Pero en otras muchas ocasiones genera explicaciones erróneas o inventadas muy lejos de la realidad; lo que en la literatura científica se ha denominado “alucinación”.
La reflexión crítica y la producción de contenido constituyen competencias esenciales para los estudiantes en su desarrollo académico. El fácil acceso a la inteligencia artificial para la realización de estas tareas debe empujar a los docentes a repensar su didáctica y los procesos de evaluación hacia el desarrollo de aprendizajes “no artificiales”.
Se trata de enseñar a usar las inteligencias artificiales de manera consciente, crítica y reflexiva con los resultados que nos proporcionan y cómo utilizarlos para aprender más y mejor.
En este sentido, hacer visibles los errores, alucinaciones y las inconsistencias de las inteligencias artificiales debe ser hoy en día uno de los contenidos transversales (así lo recomienda la UNESCO) en las diferentes áreas y materias que conforman tanto la enseñanza preuniversitaria como la universitaria.
Una competencia no muy diferente, por ejemplo, a la de saber detectar noticias falsas o vídeos manipulados, bulos y mentiras en la información publicada en redes sociales.
Como estudiantes podemos sentirnos inclinados a buscar atajos, hacer “chuletas” para exámenes, copiar del compañero, descargar un trabajo del ya en el pleistoceno “Rincón del vago” o ver la película para no leer el libro.
Pero usar atajos puede estar bien si sabemos a qué nos exponemos. Es como decidir si comprar un coche en oferta que frena el 70% de las veces o un coche más caro que en principio no falla. La conclusión es clara: si compras el barato, en alguna curva te quedarás.
Por cierto, mi hija tuvo un 30% de fallos.
Artículo realizado por Esteban Vázquez-Cano (Profesor Titular de Universidad (Facultad de Educación) Didáctica y Organización Escolar, UNED - Universidad Nacional de Educación a Distancia).