En Recursos Humanos, la IA es una herramienta que facilita la toma de decisiones por parte de los responsables del área. Aunque esta nueva tecnología permite hacer casi de todo, David Aguado, embajador de IA+Igual, apuesta por la correcta gestión del comportamiento humano.
David Aguado García es un profesional reconocido en el ámbito de la inteligencia artificial (IA) aplicada a recursos humanos: es profesor de la Facultad de Psicología de la Universidad Autónoma de Madrid e investigador en el Instituto de Ingeniería del Conocimiento de la UAM. Ayuda a las empresas en la implementación de soluciones tecnológicas para optimizar los procesos de selección, gestión del talento y desarrollo organizacional y predecir futuras necesidades.

ORH.- Es experto en el uso de datos y métricas para tomar decisiones informadas en el área de Recursos Humanos. ¿Cuándo y por qué empezó a trabajar en Data Analytics y Big Data?
David Aguado.- Tras hacer el doctorado sobre la aplicación de la tecnología en Recursos Humanos, puse el foco en Data Analytics y Big Data. En otras áreas de la empresa se usaba más, pero en la gestión de las personas no era tan frecuente y me interesaba evaluar y tratar de explicar el comportamiento de las personas en las organizaciones. Progresivamente, he ido evolucionando desde lo que llamo la IA tradicional a la IA generativa -la que estamos usando actualmente con los modelos de lenguaje, ChatGPT, etc.-
ORH.- ¿En qué áreas de la gestión del Talento resultan más útiles los algoritmos y hasta qué punto permiten optimizar los procesos?
D.A.- El uso de la IA es útil en todas las áreas, pero lo que varía es la disponibilidad de datos. Es más útil cuando existen datos de calidad, como en los procesos de selección donde podemos generar predicciones. Siempre que existe un criterio claro y bien acordado acerca del uso de la IA -retención o absentismo, por ejemplo- es más fácil generar buenos algoritmos; por el contrario, cuando tratamos de medir intangibles como el liderazgo o engagment no es tan sencillo.
ORH.- ¿Cómo funciona la IA a la hora de predecir comportamientos de los empleados?
D.A.- En organizaciones que ofrecen servicios presenciales a otras empresas, como el servicio de vigilancia, se puede medir el absentismo y las empresas tratan de pronosticar la tasa de ausencia al trabajo, por ejemplo, lo que les permite tomar decisiones con antelación y tener un retén de gente para suplir ausencias.
Esto enlaza con la predicción a nivel grupal o individual. En todos los modelos de buenas prácticas apostamos por los pronósticos grupales que sirven a la empresas para tomar decisiones sin estigmatizar a nadie. Las predicciones individuales encajan menos con la ética.
ORH.- Entonces, ¿qué pasa con la experiencia del empleado? En buena medida, consiste en individualizar la propuesta de valor que ofrece la empresa a sus profesionales.
D.A.- Uno de los objetivos del Data Analytics era la predicción de comportamiento, absentismo, rotación, etc., aspectos muy importantes para la empresa. A medida que hemos ido avanzando, las empresas líderes utilizan la inteligencia artificial para ofrecer servicios al empleado, dándole herramientas para que pueda diseñar su plan de carrera… La empresa desarrolla el algoritmo, pero lo pone al servicio del empleado, que es quien debe tomar buenas decisiones.
Algunas empresas hacen matching entre las habilidades necesarias en el sector y las que tienen los empleados. En función del resultado, recomiendan a los empleados itinerarios de formación individualizados, pero son ellos quienes deciden.
Paliar los sesgos
ORH.- El gran tema es cómo paliar los sesgos derivados de datos históricos, que en muchos casos discriminan a determinados colectivos…
D.A.- Hay varias estrategias. Sabemos que determinadas variables ayudan a ciertos pronósticos: la mujer cuida más a las personas y, a priori, su tasa de absentismo es mayor que la del hombre. Aunque la predicción no sea tan completa, en los modelos es posible evitar la variable género para disminuir algunos sesgos.
ORH.- Con datos reales es casi imposible evitar ciertos sesgos porque la batalla por la igualdad de oportunidades en el mundo empresarial es reciente. Amazon tuvo que frenar el uso de la IA en un proceso de selección de ingenieros porque su objetivo era tratar de incorporar más mujeres, pero el modelo ponía el foco en los hombres…
D.A.- Siempre recomiendo contar con un código de buenas prácticas y el asesoramiento de equipos multidisciplinares en el diseño de los algoritmos.
La tecnología no es “ingenua”: está diseñada desde un conjunto de asunciones y valores; y, por eso, es muy importante la implicación de las buenas prácticas y la educación y sensibilización de los profesionales de RR.HH.
Empleados, ética y transparencia
ORH.- Volviendo al tema de la predicción de comportamientos de los empleados, ¿Qué tipo de empresas están preparadas para implementar estas estrategias proactivas?
D.A.- La gestión del talento a gran nivel funciona sobre todo en grandes empresas, ético en gran parte por el acceso a las capacidades tecnológicas. Hasta hace poco tiempo, la medición del clima laboral se realizaba a través de encuestas. Lo que permite la IA es analizar las respuestas a las preguntas abiertas, para obtener mejores resultados.
ORH.- Y por último, pero no menos importante, es clave que toda esta actividad se desarrolle en un marco de ética y transparencia. Partiendo de la implantación progresiva del Reglamento de IA de la UE, ¿qué deben hacer y evitar las empresas españolas?
D.A.- Adoptar una visión de la IA que contemple los diferentes grupos de interés afectados, huyendo de la tradición anglosajona en el área de Talento. El Reglamento de IA de la Unión Europea establece una posición diferencial y la creación de equipos con diferentes visiones para discernir entre los distintos modelos de adopción. Al final, la IA es un cambio muy radical y provoca miedo en el ser humano, por lo que requiere tener en cuenta la gestión de emociones.
La IA permite hacer ‘todo’, pero el gran reto es la correcta gestión del comportamiento humano
ORH.- Aunque la IA permite hacer casi todo, algunas empresas padecen las limitaciones de datos reales. ¿Qué opina del uso de los datos sintéticos?
D.A.- Es algo paradójico porque se ha llegado al uso de datos sintéticos tras descubrir el límite de los datos reales. Cuando usamos datos históricos, solo vemos una parte de la realidad y, por eso, no hay que confundirlos con la realidad porque son representaciones imperfectas y muchas veces sesgadas. Con los datos sintéticos queremos simular la realidad.
La otra parte de la paradoja es que las capacidad tecnológicas permiten generar datos sintéticos más aproximados en términos de diversidad e inclusión, por ejemplo.
David Aguado participa en un Think Tank de Psicología del Trabajo y comparte en esta entrevista algunas de las propuestas recogidas en una investigación de este grupo. A continuación se exponen recomendaciones para el Desarrollo Humanizado de la IA en las Organizaciones:
- Evitar la perpetuación de sesgos en el desarrollar de soluciones de IA.
- Considerar la IA como una ayuda para favorecer las capacidades de los trabajadores y potenciar las competencias profesionales, más allá de la automatización de los procesos.
- Fomentar las competencias genéricas o transversales como el pensamiento crítico, el talento emprendedor o el autoaprendizaje, para adaptarse con éxito a un contexto muy dinámico.
- Crear políticas y planes para que pequeñas y medianas empresas y sus trabajadores no queden fuera de los beneficios asociados a la adopción de la IA.
- Implicar a expertos en comportamiento organizacional en el diseño de los procesos de cambio derivados de la introducción de la IA.
- Apoyarse en el conocimiento generado desde la psicología del trabajo para facilitar que las empresas y organizaciones adopten la IA.
- Promover el conocimiento por parte de los trabajadores del marco normativo en el que se desarrolla el uso de la IA.