Jornada IA+Igual en la Universidad de Navarra: La IA sustituirá a quien no sepa utilizarla

Maite Sáenz15 marzo 20249min
IA-DATAI
IA+Igual y su partner académico, la Universidad de Navarra (UNAV), han organizado el evento ‘Vamos a jugar con la IA’ en la que seis expertos en people analytics, machine learning, innovación, recursos humanos, comunicación y auditoría algorítmica han compartido con un grupo de directivos de RR.HH. información sobre cómo utilizar la IA en los procesos del área de talento. 

 

La sesión “Vamos a jugar con la IA” ha sido un ejercicio práctico de “iteración” con la inteligencia artificial en el que un reducido grupo de profesionales del área de gestión de personas ha podido ver una herramienta, en este caso de IA generativa, en funcionamiento, entender su lógica de “razonamiento” y comprender por qué esta tecnología les necesita tanto como a los técnicos que la desarrollan.

Organizado en el campus de la Universidad de Navarra en Madrid y con la participación de su Instituto de Ciencia de los Datos de IA (DATAI), partner académico de IA+Igual, el encuentro ha tenido como objetivo transmitir a los asistentes no sólo el potencial de esta tecnología para hacer más eficientes los procesos de gestión de talento sino también de cómo dotarles de mayor explicabilidad para que sea una herramienta confiable para la toma de decisiones. Un ejemplo muy sencillo ilustra el trasfondo del encuentro: “Podemos utilizar un martillo para clavar un clavo o para golpear a alguien. La herramienta es la misma, pero el uso es diferente. La IA es también una herramienta. El reto está en definir estratégicamente qué uso vamos a hacer de ella”.

Ha abierto la jornada Alberto García Galindo, experto en Fair Learning del Instituto de Ciencia de los Datos e IA (DATAI) de la Universidad de Navarra, quien ha realizado un primer ejercicio práctico con una introducción visual al Machine Learning. Ello le ha permitido explicar cómo, a través de la programación algorítmica, los datos se transforman en patrones, éstos en modelos y éstos, a su vez, en predicciones. A este respecto ha alertado sobre la tentación de antropomorfizar la IA ya que “si bien es una tecnología que intenta replicar el pensamiento humano, no es ella la que toma las decisiones, sino que sirve de apoyo a quien tiene que tomarlas”. Por eso ha finalizado llamando la atención sobre el verdadero reto de la aplicación de la IA específicamente en el campo de la gestión del talento, que no es otro que el de construir modelos de aprendizaje automático éticos basados en cuatro pilares: robustez, equidad, transparencia y confiabilidad. “Esto se traduce en la necesidad de validar los datos que alimentan el algoritmo para que no presente sesgos que deriven en algún tipo de discriminación por género, raza, etc. y que sea posible auditarlo para conocer cómo se toman las decisiones”, ha señalado.

 

El verdadero reto de la IA en la gestión del talento es construir modelos de aprendizaje automático éticos basados en cuatro pilares: robustez, equidad, transparencia y confiabilidad.

 

A continuación, Ana Valera, experta en Data Analytics y miembro del consejo de IA+Igual, ha planteado una demostración práctica de iteración con IA generativa (en este caso, con ChatGPT) para demostrar cómo la intervención humana es necesaria para poner en contexto lo que entrega e identificar posibles sesgos en sus propuestas. Para ello ha iniciado un hilo de peticiones a ChatGPT para simular un proceso de reclutamiento, introduciendo tres currículums y analizando cómo los clasifica esta herramienta; previamente, había replicado dos currículums idénticos cambiando el nombre: uno pertenecía a un hombre y el otro a una mujer. Para sorpresa de los directivos presentes, la categorización propuesta ha colocado en primer lugar al hombre y en tercer lugar a la mujer, a pesar de tener ambos la misma trayectoria profesional, igual formación e idénticas habilidades.

 

“El uso de los datos puede ayudar a tomar mejores decisiones, más justas y objetivas. Pero no está exento de sesgos –asegura Valera-. Las empresas deben cerciorarse de que sus empleados no puedan introducir datos confidenciales en herramientas de IA y asegurarse de que les están dando la formación necesaria, para que sean capaces de discernir las ventajas y limitaciones del uso de la IA”, subraya la experta en análisis de datos.

 

En línea con el ejemplo de Valera, Ambrosio Nguema, experto en LLM y miembro del Consejo Asesor de IA+Igual, ha desarrollado un algoritmo en Phyton específicamente para la sesión en el que ha volcado una base de datos de curriculums con el objetivo de mostrar el back office de los modelos que sustentan la IA. Combinando variables que debe determinar el gestor de personas, ha permitido evidenciar no sólo cómo puede facilitar la automatización del proceso sino sobre todo cuál es el espacio que evidencia el valor de RR.HH en la programación y aprendizaje de los modelos.

 

Un proyecto de innovación para dar confiabilidad a la IA en RR.HH.

Finalmente, se ha abierto un debate en el que han participado los ponentes junto con los promotores del proyecto IA+Igual. Félix Villar, experto en auditoría algorítmica, ha clarificado que, aunque estos modelos pueden ayudar a mejorar la productividad, las empresas se enfrentan a un dilema: “Es difícil que una organización pueda realizar un desarrollo propio y, lo habitual, es contratar un proveedor que quizá ha entrenado el modelo del algoritmo con 200.000 datos de un lugar geográfico concreto, aunque lo use para empresas de todo el mundo”, ha expuesto Villar, quien es, también, uno de los promotores de IA+Igual.

Marisa Cruzado, experta en innovación social, ha realizado una llamada de atención a la sociedad sobre el uso de la tecnología: “Algo estamos haciendo mal si ponemos el foco en cuestiones como que un dron ataque perfectamente un objetivo provocando la mayor destrucción posible, que Hacienda nos controle más que gran hermano o que empresas que tienen todos nuestros datos nos denieguen servicios como un seguro de vida a partir de los 50 años…”.Cruzado ha hecho hincapié en que “ahora podemos decidir cómo va a ser el futuro y nos estamos olvidando de que lo que hacemos tiene que ir en pro de la persona, con un enfoque ético que no se ciña exclusivamente al recién aprobado Reglamento de IA europeo”.

Y finalmente, Maite Sáenz, directora de ORH y experta en gestión de RR. HH, ha advertido de que “cuando decimos que los algoritmos alucinan en realidad hemos de convencernos de que quienes alucinamos somos nosotros. Los sesgos inconscientes que comprometen los principios de robustez, equidad, transparencia y confiabilidad referidos por Alberto García son actos reflejos propios del razonamiento humano que trasladamos a la inteligencia artificial con la misma inconsciencia con la que los vivimos en nuestra vida cotidiana. Y precisamente el objetivo de IA+Igual es auditar algoritmos para garantizar la equidad en la diversidad”.

El cierre del evento ha corrido a cargo de Iván Cordón, líder del equipo de DATAI y experto en Innovación tecnológica, que ha puesto sobre la mesa la necesidad de que sean “equipos multidisciplinares y multidiversos quienes pongan coto a los sesgos que todos tenemos y que la IA reproduce. “La tecnología es una herramienta y no sustituirá al profesional de recursos humanos que aprenda a utilizarla, pero sí a quienes no sepan hacerlo”.


Observatorio de Recursos Humanos

ORH | Observatorio de Recursos Humanos

Desde 2006 trabajamos para ofrecer contenidos e información de valor para el profesional de la gestión de RRHH, con el convencimiento de que el conocimiento, en sus vertientes de creatividad, innovación y aprendizaje continuo, es el principal valor de una dirección eficaz.



Contacta con nosotros


Nuestros Otros Proyectos


Suscríbete al boletín

* campos obligatorios
Acepto las condiciones de uso y la política de privacidad


Síguenos en Redes Sociales