La semana pasada se dieron a conocer las empresas galardonadas con los XX Premios Madrid Empresa Flexible. Aegon Seguros, Speexx, Fundación Artemisa, OHLA y Sagardoy Abogados como ganadoras, y ZityHub, Sareb, Empark y Adecco Group como finalistas, han sido reconocidas por hacer una gestión consciente, positiva, equitativa y responsable de sus empleados en materia de flexibilidad y conciliación. Para diseñar sus propuesta de valor desde las premisas de la diversidad y la personalización han tenido que manejar multitud de variables como la edad, el género, la situación civil, la maternidad, la paternidad, la composición del núcleo familiar, las necesidades especiales en caso de discapacidad, etc.
¿Pero se imaginan que les hubiera ayudado un modelo de IA aplicado a la definición de la propuesta de valor al empleado en materia de flexibilidad y conciliación? Pues que hubieran tenido que lidiar con los sesgos inconscientes, con los suyos propios y con los del algoritmo. Porque lo primero que nos recuerda el recientemente aprobado Reglamento Europeo de IA es que es de obligado cumplimiento garantizar un uso ético y responsable de esta tecnología, respetando los derechos fundamentales de las personas trabajadoras y muy especialmente el principio de no discriminación.
El riesgo de la IA en nuestro ámbito, el del empleo, ya sea con agentes privados como públicos o del tercer sector, está en los sesgos, porque la toma de decisiones basada en modelos de IA no puede incorporar ni datos ni reglas algorítmicas que lleven a la discriminación o que den por supuestos prejuicios o ideas preconcebidas. Pero primero hemos de revisar las nuestras propias.
A la hora de escoger las variables para un modelo de IA y las reglas que han de hacerlo aprender hemos de salir de nuestro razonamiento habitual para entender la lógica del algoritmo. Por ejemplo, y muy relacionado con el diseño de las PVE:
- En un modelo de IA aplicado a la rotación no deseada: ¿Debemos quitar la variable “género” para no correlacionar las salidas voluntarias con un colectivo determinado? Pues puede pasar que los hallazgos de la IA nos conduzcan a dicha variable: la distancia del trabajo y la problemática de conciliación que lleva implícita, que mayoritariamente afecta a las mujeres.
El modelo no ha caído en ningún sesgo algorítmico, sólo refleja una realidad que compromete la retención del talento de la organización y que ha de guiar la toma de decisiones para remediarlo. Y en esa toma de decisiones ya no hablamos de sesgos inconscientes sino de resoluciones deliberadas, porque la responsabilidad siempre es humana.
Pero también nos encontramos con ejemplos en otros ámbitos con más recorrido en el uso de esta tecnología:
- En un modelo de IA aplicado a un proceso de reclutamiento y selección: ¿Y si quitamos la variable edad de un CV para ir a datos ciegos en cuanto al género? Pues que otras variables, como la trayectoria profesional o la formación académica, retratan nuestra “antigüedad”. No se trata tanto de obviar lo evidente sino de seleccionar las variables desde el modelo de gestión de la diversidad de la compañía en el marco de sus necesidades de negocio y del modelo de responsabilidad social de la organización. Y nuevamente eso es una responsabilidad intrínsecamente humana.
Este es ámbito de investigación aplicada del Proyecto IA+IGUAL, que se puso en marcha en julio de 2023 financiado con Fondos Next Generation gracias al impulso del Área de Innovación Social de la Consejería, de Familias, Juventud y Asuntos Sociales de la Comunidad de Madrid.
Este proyecto tiene dos objetivos y un propósito:
- El objetivo 1: analizar la casuística de los sesgos en el uso actual de diferentes modelos de IA en los procesos de gestión de talento (reclutamiento y selección, aprendizaje y desarrollo, cultura corporativa, etc.).
- El objetivo 2: compartir los hallazgos con el ecosistema de empleo en la Comunidad de Madrid en un Libro Blanco de Recomendaciones de utilidad para las empresas, los departamentos de RR.HH, los orientadores de empleo, los representantes de los trabajadores y la propia administración regional.
- El propósito: plantear escenarios para la colaboración entre los diferentes interlocutores sociales de la CAM y aportar líneas de trabajo para políticas activas de empleo futuras.
El despliegue del proyecto IA+Igual está siendo pilotado por CVA, ORH e IN2 con la colaboración de la Universidad de Navarra a través de su instituto DATAI, a través de una ruta de seis ámbitos con perspectiva investigadora, formativa y divulgadora:
- formativa, con el desarrollo del Campus IA+Igual que contiene información, webinars y, en breve, diversos itinerarios de aprendizaje gratuitos;
- divulgadora, con una campaña de divulgación en medios que incluye también la participación en eventos y el networking nacional e internacional;
- investigadora, con la realización de análisis técnicos de iniciativas de gestión de RR.HH. con ayuda de modelos de IA que será la base de un Libro Blanco.