Ante la alarma de algunos sectores, ante la posibilidad de que haya quien intente colar un texto escrito por aplicaciones de inteligencia artificial (IA) como ChatGPT como una creación original humana, hay desarrolladores que han encontrado una solución. Se trata de crear una huella, una especie de marca de agua, en el generador de textos, invisibles para el ojo humano, pero no para otra programa de inteligencia artificial.
Marcas que si se integran en modelos de lenguaje grandes, como ChatGPT, podrían ayudar a prevenir algunos de los problemas que estos modelos ya han causado.
Cuando una inteligencia artificial escribe un texto a primera vista parece que lo ha hecho un humano, es difícil descubrir a la máquina detrás, pero si se aplican estos modelos, dejaría un rastro creada a propósito en los textos generados por IA para poder identificarlos. Es decir señales que quedan en el texto, invisibles para los humanos, pero algorítmicamente detectables a partir de una pequeña cantidad de tokens.
Los han ideado unos investigadores de la Universidad de Maryland quienes hicieron la prueba detectando sin dificultad un texto creado por el modelo de lenguaje de código abierto de Meta, OPT-6.7B, utilizando el algoritmo de detección que construyeron. Aunque su trabajo todavía tiene que ser revisado ya han dejado disponible su código que será de uso gratuito a partir de mediados febrero.
La herramienta que ha desarrollado este equipo podría ajustarse para funcionar con cualquier modelo de lenguaje de IA que prediga la siguiente palabra. Estos modelos suelen funcionar prediciendo y generando una palabra tras otra. El sistema de marcas de agua vendría a poner la lupa en esta decisión entre palabra y palabra. Crea una lista verde de palabras más frecuentes y otra lista roja de las menos recurrentes. Después, elige un término de la lista verde.
Cuantas más palabras de la lista verde tenga un texto, más probable es que lo haya generado una inteligencia artificial. Un texto humano tendrá una mezcla aleatoria de rojos y verdes.
Pero existen limitaciones en este nuevo método. La marca de agua solo funciona si sus creadores la integran en el modelo de lenguaje empleado desde el principio. Además el modelo de IA en el que se probó la marca de agua también es más pequeño que los modelos populares como ChatGPT.
En cualquier caso no olvidemos que ChatGPT es, básicamente, un robot virtual de conversación (chatbot) que responde una variedad de preguntas y realiza tareas por escrito pero que ha aprendido cómo los humanos escribimos por imitación.
El generador de textos de OpenAI se enfrenta a otro problema. Puede presentar "idéntica construcción y argumentos parecidos", eso fue lo que detectó en varios trabajos de su clase e hizo sospechar a un profesor de Lyon de que sus alumnos habían utilizado inteligencia artificial para redactar los textos que le habían entregado.
Lo que ocurre es que ChatGPT ha aprendido cómo unir las palabras y los conceptos. Tiene una estructura bastante acorde todo el tiempo, pero si lo lees con profundidad, se puede notar que lo ha escrito una máquina, sobre todo a medida que el texto se alarga: "Con el chatbot de OpenAI a medida que van pasando frases y se van alejando de la primera, se ven discordancias, contradicciones, cambios de referente. Cuanto más largo sea el texto, se aprecian más incoherencias entre el inicio y el final, aclara Carles Sierra, director del Instituto de Investigación en Inteligencia Artificial (IIIA) del CSIC.
Es decir, cuanto más se alargue el texto más posibilidades de descubrir su esencia robot: "Como soy un modelo de lenguaje creado por OpenAI, no tengo gustos ni preferencias personales. Mi función es proporcionar información y ayudar a las personas a resolver sus preguntas, pero no tengo la capacidad de disfrutar o valorar películas o cualquier otro tipo de entretenimiento", explica el propio programa y ahí está quizá la verdadera manera de detectarlo, tratar de encontrar su alma.