La Agencia Española de Protección de Datos (AEPD) se plantea seriamente, como hace poco hizo Italia, prohibir la inquietante herramienta ChatGPT, un sistema de inteligencia artificial (IA) capaz de resumir libros, componer canciones, pintar cuadros o resolver los problemas más complicados.
De momento, la agencia ha iniciado medidas contra la empresa propietaria, OpenAI, por incumplir la ley. El avance imparable de ChatGPT ha provocado que salten todas las alarmas en Europa y en el resto del mundo. Por ello, muchos países estudian ponerle límites.
Dicho sistema deja claro que es importante considerar los beneficios y los riesgos que la tecnología puede traer a la sociedad. Y apunta que resulta crucial que se establezcan medidas de seguridad y regulaciones éticas adecuadas para garantizar que el desarrollo de la IA se utilice para el bien común.
"Estas herramientas pueden traer cosas muy buenas y creo que sería un error ponerle trabas", asegura Enrique Puertas, profesor de inteligencia artificial, a Informativos Telecinco.
No obstante, parece que la cesión de datos o los derechos de autor se encuentran desprotegidos. "No hay un control específico sobre esta ingesta de información de acuerdo con las normativas europeas", subraya Enrique San Juan, experto en IA.
Entonces, ¿dónde estarían los límites del futuro? Francisco Martorell, filósofo, aclara que "ni mucho menos, de momento, va a poder sustituir al ser humano".
Y nos despedimos de ChatGPT cuestionándole si se considera un peligro. A ello, responde que la responsabilidad del uso de la IA y los modelos de lenguaje recae en las personas que los emplean.
Lo que está claro es que, por ahora, la IA está cada vez más incrustada en nuestras vidas.