La Inteligencia Artificial que nos selecciona para un trabajo, ¿tiene sesgos de género y de raza?

  • Un estudio señala que las afirmaciones de que la IA en RRHH puede eludir los prejuicios por etnia o género, son "falsas y peligrosas"

  • Desde la empresa Paradigma Digital aseguran que cualquier técnica de IA está sesgada por naturaleza

  • Otros expertos apuntan que este estudio se basa en automatización y no en verdadera IA

La Inteligencia Artificial se usa cada vez más en recursos humanos y son muchos los que lo ven como una herramienta del futuro y otros, tienen sus dudas y ven que la IA no se está empleando de manera correcta. “Esta IA no consiste en otra cosa que, en un conjunto de reglas, que tendrán tantos sesgos como la persona que la ha definido”, afirma Raúl Sánchez, Responsable de Tecnología en Syntonize.

Algunos expertos aseguran que la inteligencia artificial en recursos humanos puede afectar a los prejuicios por etnia o género para impulsar la diversidad en el lugar de trabajo. Según los investigadores de la Universidad de Cambridge (Reino Unido), estas herramientas reducen la raza y el género a datos triviales, y a menudo se basan en análisis de personalidad que son "pseudociencia automatizada".

"Si bien las empresas pueden no estar actuando de mala fe, hay poca responsabilidad sobre cómo se construyen o prueban estos productos", dicen los autores del estudio. Como tal, esta tecnología, y la forma en que se comercializa, podrían acabar siendo peligrosas fuentes de desinformación sobre cómo se puede 'desprejuiciar' la contratación y hacerla más justa".

IA versus automatización

El problema para el Responsable de Tecnología en Syntonize, es que hay que diferenciar muy bien entre IA y automatización. "Una IA parte de unos parámetros, pero va aprendiendo de ellos y al final saca unas conclusiones. La automatización consiste en un conjunto de reglas que se meten en un programa y ayudan a identificar a un candidato, por ejemplo, según los parámetros que le hayan dado, pero no evoluciona, ni mejora, ni aprende”. Este es el dilema que ve el experto con el estudio de la Universidad de Cambridge, no es IA es automatización.

Sin embargo, Moisés Martínez, Responsable de datos de IA en Paradigma Digital, asegura que, si las maquinas son capaces de tomar decisiones en base a los patrones que detecta, es IA. “Independientemente de cómo lo hagan, es lo que hacemos los humanos, aunque lo hagamos de manera diferente·.

El informe de Cambridge afirma que es un peligroso ejemplo de "tecnosolucionismo", recurrir a la tecnología para ofrecer soluciones rápidas a problemas de discriminación muy arraigados que requieren inversiones y cambios en la cultura de la empresa. De hecho, los investigadores han trabajado con un equipo de estudiantes de informática de Cambridge para desacreditar estas nuevas técnicas de contratación mediante la creación de una herramienta de IA basada en la tecnología, disponible en https://personal-ambiguator-frontend.vercel.app/

Aquí vemos un ejemplo claro. El propio Sánchez demuestra que los parámetros cambian dependiendo de la ropa que lleves, el contraste que tenga el ordenador, si sonríes más o menos, “si te descartan para un puesto por haberte sentado cinco centímetros más atrás en la cámara o llevar jersey en lugar de camisa, no sé si es por hacer la faena o por una herramienta poco precisa. Esto no es IA, es automatización”, aclara. 

La IA está sesgada por naturaleza

Desde Paradigma Digital, Martínez asevera que cualquier técnica de IA está sesgada por naturaleza, porque para evitar los sesgos tendríamos que tener acceso a todos los datos que existieran sobre ese concepto, y eso es imposible. "Primero, porque el volumen de datos es enorme y segundo, porque se van generando en tiempo real según los humanos vamos evolucionando", dice.

"El otro problema es que los humanos sesgamos de manera voluntaria o involuntaria en mayoría de los casos por nuestra perspectiva, nuestras creencias, ideologías, o simplemente porque la tecnología que usamos no es completa ni perfecta", añade.

"Si entrenas a la IA para decir que los marcianos son buenos y nos van a dominar a todos, eso es lo que va aprender la IA, igual que lo haría un humano a quien le hubieran enseñado la supremacía alienígena. Es necesario determinar correctamente el grupo de datos con el que entrenar dicha inteligencia", señala Sánchez. 

Debe verse como una herramienta para mejorar la toma de decisiones

Para el experto de Syntonize, "los micro gestos, y todos los parámetros que utiliza una persona para emitir un juicio es muy difícil que los tenga en cuenta una máquina no preparada para esos parámetros de entrada y mucho menos, no entrenada. Está claro que ahora mismo la IA ya se usa, pero no para elegir un candidato. Si tuviéramos que preparar una IA para realizar esta función, primero tendríamos que estudiar en detalle qué parámetros utiliza una persona para tomar la decisión, luego, darle una medida y por último, asociar un conjunto de resultados a esos parámetros para tener una muestra. Con varios cientos de miles de muestras podríamos entrenar a la IA para que tome la decisión que nosotros hubiéramos tomado". 

Martínez afirma que la IA, al final, debe ser una herramienta que los humanos tenemos que utilizar para mejorar nuestra toma de decisiones, no es una herramienta que tenga que tomar decisiones por nosotros. “En el caso de que impacte en la vida de las personas y decida si una persona es apta para un empleo o merezca una subida salarial debería ser el humano, el que ayudado por la IA, tenga la última palabra”.

La 'explicabilidad' de la IA

"Ha surgido una corriente en los últimos años, que es lo que llamamos la explicabilidad de la IA para que podamos explicar al usuario porque la IA ha tomado esa decisión, porque a lo mejor hay un sesgo en los datos o ha detectado algo que nosotros como humanos no hemos sido capaces. Lo ideal es que todas esas respuestas de las IA se puedan explicar y con eso podamos tomar una decisión u otra", asegura Martínez.

Desde Paradigma Digital señalan varios ejemplos de que la mayor parte de la IA están sesgadas. El error que tenía el sistema de Amazon cuando siempre rechazaba los currículums femeninos porque él siempre había aprendido con información masculina. Antes casi no había ingenieras, por eso las rechazaba y el sistema no las tenía en cuenta.

O, el problema de Microsoft en las elecciones de Trump contra Biden. Donde el chatbots aprendió de Trump y se convirtió en una herramienta de generar insultos contra algunas minorías. Algo más cercano, el problema que ha tenido el coche de Tesla, donde no identificaba bien a algunos individuos por su color de piel u otros parámetros porque no le habían considerado en las pruebas. 

La IA es una realidad

Syntonize asegura que hay profesiones que no se han inventado todavía y que van a tener mucho que ver con la IA. Por ejemplo, domador de las inteligencias artificiales que será un experto en dirigirse a una IA, para que el resultado de la interacción con la IA sea el realmente deseado", comenta Sánchez.

Un estudio realizado en 2020 sobre 500 organizaciones de diversos sectores en cinco países reveló que el 24% de las empresas han implementado la IA con fines de contratación y que el 56% de los directores de contratación planean adoptarla en el próximo año.

Otra encuesta realizada en abril de 2020 a 334 líderes de recursos humanos, cuando la pandemia se afianzaba, descubrió que el 86% de las organizaciones estaban incorporando la nueva tecnología virtual a las prácticas de contratación.

"Es muy importante determinar y ser muy cuidadosos a la hora de utilizar la IA porque un error puede hacer que una persona se quede fuera en un proceso en el que no debería. La IA puede ayudar muchísimo a identificar perfiles de manera muy rápida, pero se debe utilizar solo como una herramienta", concluye Martínez.