Las empresas tecnológicas que desarrollan IA generativa han ido mejorando sus sistemas de moderación para minimizar los posibles riesgos de un mal uso. Algunos chatbots intentan limitar las respuestas relacionadas con temas sensibles, y procuran no dar opiniones personales cuando se les pide.
Si le preguntamos a ChatGPT por su opinión sobre un tema, comenzará respondiendo que “como IA desarrollada por OpenAI, no tengo opiniones personales”. A continuación, elaborará un resumen de las diferentes perspectivas sobre esa cuestión.
Por supuesto, hay temas que el chat no va a responder porque van en contra de sus principios éticos, como el contenido violento, ilegal u ofensivo. Programar una IA generativa para que no responda a según qué temáticas es una de las partes más complejas del proceso. De hecho, OpenAI anunció recientemente que posponía el lanzamiento de su asistente de voz avanzado porque aún no habían logrado que fuera seguro y que el sistema fuera capaz de rechazar el contenido inapropiado.
Gemini, la IA de Google, anunció este mes de marzo que restringiría sus respuestas para limitar la información relacionada con las elecciones. En un año en el que más de 70 países acudirán a las urnas, la empresa tecnológica decidió mantenerse al margen.
El riesgo de dar información falsa sobre los procesos electorales puede tener serias implicaciones para las democracias, como ya se vio con las campañas de desinformación a través de las redes sociales durante las elecciones de 2016. Al final, una IA basa sus respuestas en probabilidad y los datos de entrenamiento, por lo que puede ‘alucinar’, y más cuando se trata de temas de actualidad.
Pero no todas las tecnológicas han decidido limitar las respuestas políticas de la misma manera. Un día después de las elecciones del Reino Unido, ChatGPT fue capaz de ofrecer un resumen con los resultados actualizados. La empresa está llegando a acuerdos con medios de comunicación para incorporar sus contenidos actualizados en sus respuestas.
En este ámbito, un estudio del Instituto Reuters sobre las recientes elecciones del Reino Unido concluyó que los chatbots tenían algunos problemas para responder a datos sobre medidas concretas de los partidos. En algunos casos, también ofrecieron respuestas desactualizadas o imprecisas sobre las normas del proceso electoral.
ChatGPT evita los dilemas morales
Cuando se le plantea un dilema al chatbot de OpenAI, realiza una enumeración con las diferentes respuestas posibles. Por ejemplo, si le planteamos el dilema de un coche sin conductor que debe elegir si salvar a un niño de cinco años o a un anciano, responde a partir de diferentes perspectivas. En este caso, afirma que la perspectiva utilitarista salvaría al niño de cinco años porque es el que tiene más vida por delante, mientras que la deontológica las dos vidas tienen igual valor. Sin embargo, de nuevo evitará decidirse por alguna de ellas.
Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail.
Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.