Elena Martín, investigadora en Ética del Aprendizaje Automático de DATAI y Carlos Cabañas, Talent & HR Solutions de Aggity, han participado en el tercer webinar del Campus IA+Igual con el título Ejemplos prácticos de cómo y para qué aplicar la IA en recursos humanos. Las claves son establecer claramente para qué necesita la empresa usar la IA, depurar muy bien los datos y contar con una persona experta en recursos humanos que supervise el resultado.
Durante la sesión, Carlos Cabañas ha explicado el caso de éxito de una multinacional del sector farmacéutico que ha desarrollado un algoritmo para evitar la fuga del talento y la rotación no deseada en España. Antes de exponer este caso, cuyo algoritmo está siendo auditado por IA+Igual, Cabañas ha alertado a los profesionales de la tentación de usar la Inteligencia Artificial generativa (IAg) porque está de moda: “RR.HH. solo debe utilizarla si ha identificado un problema y tiene un objetivo claro”. Además, ha establecido otra premisa clara: “El valor de los datos como punto de partida es crítico, pero hay que tenerlos en cuenta durante todo el proceso, incluidos los resultados, para evitar posibles anomalías. La intervención humana disminuye a medida que gana peso la tecnología, pero siempre debemos tenerla en cuenta”.
La investigadora, Elena Martín, reforzó esta idea poniendo de relieve que “el funcionamiento predictivo está más allá de la IAg y los datos usados y es responsabilidad de las personas que están detrás de la tecnología. Es esencial la transparencia con los empleados para que entiendan cómo se interpretan los datos y cómo les afectan”.
A raíz de la pandemia COVID-19 y el posterior crecimiento del sector farmacéutico, la retención del talento se convirtió en una prioridad para el sector ante la dificultad para reemplazar a los empleados que abandonan la empresa -se trata de perfiles con una curva de aprendizaje alta-. Por eso, Aggity ha desarrollado un algoritmo para la multinacional mencionada, partiendo de 103 variables, 33 de ellas correlacionadas con riesgo de fuga (rango de edad, nº. hijos, antigüedad en la empresa); otras, como género o performance, fueron descartadas.
1. Identificación, análisis e integración de datos. El primer paso consistió en definir el objetivo del proyecto, partiendo del preprocesamiento de los datos proporcionados por RR. HH y, a continuación, se realizó un diagnóstico del posible motivo de la rotación no deseada. El diseño de un cuadro de mando de fidelización, un trabajo descriptivo, permitió dicha rotación del talento del 30% al 10%.
2. Modelo predictivo de desvinculación del empleado. Acto seguido, se puso el foco en el análisis predictivo con la información en bruto codificada y homogeneizada para ver qué sucedería en los próximos 12 meses.
3. Resultados y hoja de ruta. A partir del último paso, el prescriptivo, Aggity propuso a la empresa iniciativas de vinculación, palancas de mejora del modelo predictivo, un cuadro de mando de seguimiento y la realización de workshops interdepartamentales para identificar la analítica de uso.
Un algoritmo es, para Carlos Cabañas, “una coctelera de datos que hay que depurar para extraer hipótesis sin caer en el riesgo de dejarse embaucar con los resultados”. Por eso, en la actualidad, la empresa de Farma trabaja con las áreas implicadas -RR. HH, tecnología, etc.- en el desarrollo de una cultura que use de forma ética e inteligente la IA. Para Cabañas, “el impacto trasversal de las herramientas de IA dejará fuera a quien no sepa usarlas”.
Matemáticas, estadística… y ética
Martín ha partido de la definición de IA: “Un campo multidisciplinar en el que históricamente han confluido diferentes áreas como las matemáticas, estadística e informática y, más recientemente, han ganado terreno la ética y las ciencias sociales”.
A partir de ahí, para que un aprendizaje automático sea responsable debe ajustarse a cuatro claves, según la investigadora de DATAI: equidad –hay que trabajar en tres grandes vías para mitigar los sesgos históricos (preprocesamiento de datos, modelo que procesa los datos y resultado ofrecido); robustez –se debe valorar, por ejemplo, si una herramienta diseñada para España, como la expuesta por Cabañas, es extrapolable a otros países; transparencia o explicabilidad -por qué el algoritmo llega a una predicción-; y confiabilidad -no se centra en un número si no en su nivel de confianza.
“Es muy importante partir de un planteamiento ético por el impacto que puede tener el modelo de aprendizaje automático sobre una población”, asegura la experta en Ética. Ha recurrido al ejemplo de Ocean model, un modelo de IA de caja negra que otorga un porcentaje de 0 a 100 a 5 dimensiones de la personalidad después de visionar un vídeo de 1 minuto. Los resultados cambian si el espectador usa gafas o no o pone de fondo del escritorio del ordenador una biblioteca, entre otras variables que nada tienen que ver con su personalidad.