Los expertos de la compañía de ciberseguridad Secure&IT han hecho saltar las alarmas al desaconsejar a los usuarios que introduzcan datos privados o personales en chats de Inteligencia Artificial (IA) como ChatGPT, ya que esta información puede quedar registrada en el sistema y ser potencialmente utilizada para entrenar la aplicación, ergo se "pierde el control sobre ellos". En la actualidad se han popularizado varias herramientas de IA generativa (como ChatGPT, Bing o Bard) que los usuarios emplean habitualmente para realizar varias tareas, con fines tanto personales como laborales.
Un chat de IA es útil, por ejemplo, para realizar búsquedas precisas de información, traducir textos con mayor precisión, realizar cálculos complejos, analizar documentos, redactar historias de ficción o escribir códigos en distintos lenguajes de programación. Por estos motivos, ChatGPT, la plataforma de IA más popular, ha alcanzado más de 100 millones de usuarios semanales activos en menos de un año.
La consultora legal TIC de Secure&IT, Natalia Patiño, ha explicado en un comunicado que, para usar ChatGPT debidamente, los usuarios han de tener en cuenta que aunque esta herramienta "facilita o complementa" la labor humana, "no la sustituye".
En este contexto, señaló que "no se trata de una herramienta infalible" y que siempre hay que verificar su uso para evitar riesgos. También subrayó que no es una tecnología que pueda razonar, sino que las respuestas están ligadas a datos sobre los que se ha entrenado previamente. En particular, ChatGPT emplea una técnica de aprendizaje a la que se refieren como "aprendizaje por transferencia"; es decir, un entrenamiento que emplea un gran conjunto de datos (big data), cuyos resultados a su vez utiliza para seguir entrenando el modelo de aprendizaje.
De esta forma, cuando el usuario interactúa con el 'chatbot', introduce una petición y el modelo ajusta su respuesta en función de lo que el usuario necesite y los datos que haya aportado. Este sistema permite que el asistente pueda generar respuestas con mayor precisión y más parecidas a lo que respondería un humano.
Los expertos han subrayado, sin embargo, que estas herramientas emplean "todos los datos que los usuarios introducen" y, además, dichos datos quedan registrados y son susceptibles de ser reutilizados. Por ello, se ha de pensar en qué información se está compartiendo con el 'chatbot', y si dichos datos son personales.
Desde Secure&IT han señalado que la calidad de la respuesta del asistente viene determinada por la calidad del "prompt" introducido por el usuario, es decir, la forma en que se solicita la acción requerida, que ayuda a la IA a ser más precisa cuanto más compleja y completa sea. Por tanto, la entrada correcta debe ser "explícita" y contener palabras clave que permitan a la IA a construir la respuesta más adecuada.
Los expertos señalan que esto no impide que se generen respuestas incorrectas o incompletas. Incluso puede ofrecer respuestas con "alucinaciones", porque puede dar información aparentemente lógica y convincente que en realidad es falsa o inventada.
También han resaltado los distintos tipos de sesgos que pueden esconder las respuestas generadas por el sistema, como el sesgo de retroalimentación, que es aquel que se produce cuando, al utilizar la retroalimentación de los usuarios para entrenarse, los sistemas de IA "perpetúan los perjuicios y estereotipos existentes".
Según Patiño, un caso de sesgo de retroalimentación es la discriminación por edad y por género en entornos laborales, ya que ChatGPT puede seguir bloqueando la contratación de personas mayores de 45 años o nombrar sólo a hombres para puestos directivos "si el modelo de IA para la selección de candidatos aprende información previa ya sesgada".
Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.