Tenemos que aprender a usar la IA en los procesos de selección de personal de forma responsable, en vez de criticarla
Las empresas están pasando de la automatización del cribado de currículums en los procesos de selección de personal a utilizar la IA en la mayoría del proceso de selección de personal, incluida la entrevista a los posibles candidatos. Dos investigadores de la Universidad de Leiden, Carlota Rigotti y Eduard Fosch-Villaronga -que forman parte de BIAS Project- ofrecen algunas claves para usar esta tecnología de forma responsable partiendo de una premisa esencial: la tecnología está al servicio de los profesionales de Recursos Humanos. ORH los entrevista para conocer un poco más sobre su percepción sobre los riesgos y ventajas de utilizar la IA en el ámbito de los recursos humanos.
El pasado mes de abril, Carlotta Rigotti y Eduard Fosch-Villaronga publicaron un artículo de investigación tras entrevistar a directores de recursos humanos, titulado Equidad, IA y contratación (Fairness, AI & recruitment en la versión original) en la revista del eLaw Center for Law and Digital Technologies de la Universidad de Leiden, en los Países Bajos. Ambos académicos forman parte del proyecto BIAS, financiado por el programa de Investigación e Innovación Horizonte Europa de la Unión Europea, cuyo objetivo es mitigar los sesgos de los colectivos más vulnerables en el uso de la IA en Recursos Humanos.
ORH.- BIAS involucra a profesionales del mundo académico y empresarial para tratar de mitigar los sesgos algorítmicos en el uso de la IA en Recursos Humanos. Pero la realidad es que, a pesar de que existe una gran incertidumbre acerca de cómo usar la inteligencia artificial (IA) en Recursos Humanos, se ha introducido sin resolver los riesgos latentes ¿Cuál su opinión después de entrevistar a directivos del área?
Carlotta Rigotti- La tecnología está ahí y es inevitable usarla. En base al estudio que hemos hecho, es cierto que todavía nos falta conocimiento sobre los posibles riesgos y cómo mitigarlos. Existe una gran sensibilización en nuestra sociedad acerca de los sesgos de género, pero no se trata solo de las mujeres, sino también, por ejemplo, de las personas con discapacidad, los jóvenes, la educación… y otras categorías que no estamos acostumbrados a ver como vehículos de discriminación. No tengo una visión en blanco o negro, es más una cuestión de grises. Creo que la solución no es criticar, si no ver si la tecnología se usa de manera responsable en un contexto de lawless space (indefinición normativa).
Eduard Fosch-Villaronga– Recuerdo cuando surgió Airbnb: un tipo de alojamiento que no es hotel, ni apartotel, ni una habitación alquilada… En muchos negocios las empresas apuestan por el futuro y, en el caso de la IA, hablamos de un futuro tecnológico acompañado de incertidumbre. No conocemos aún bien qué impacto va a tener en los futuros empleados el uso de la IA en los procesos de selección, pero creo que, como sucede con cualquier innovación, hay que empezar, aunque las cosas no sean del todo claras.
Siempre, la persona
ORH.- Como bien dicen, hay que ir avanzando paso a paso. Aun así, insisto: ¿No es más arriesgado utilizar la IA en cuestiones denominadas de alto riesgo por el Reglamento europeo de Inteligencia Artificial (RIA), como son los procesos de selección de personas, que en el área de automatización de procesos o estratégica, por ejemplo?
C.R.- En base a nuestra investigación, la persona siempre está detrás. Esto significa que para que el proceso de selección sea más eficiente, se proporciona a los profesionales de Recursos Humanos una nueva tecnología que no les reemplaza. También las personas cometen errores cuando, por ejemplo, carecen de empatía a la hora de entrevistar a un potencial candidato. De lo que tenemos que preocuparnos es de que el algoritmo esté bien programado y aprender a usarlo de forma responsable.
E.F-V.- Reitero que en la mayoría de las empresas que nosotros hemos entrevistado siempre hay una persona al final del proceso de selección.
ORH.- Otro gran problema es el de los datos que alimentan al algoritmo. Si el modelo de IA nace con insuficientes datos y no se mantiene actualizado, la empresa puede tomar decisiones equivocadas. ¿Hay suficiente comunicación entre Recursos Humanos y los programadores de los algoritmos para afrontar esta cuestión?
C.R. En BIAS usamos el concepto de co-creación. Recurrimos a la literatura escrita, a los workshops, las entrevistas… Es un trabajo muy laborioso, pero a la vez efectivo. En temas estadísticos, es necesaria una sobre representación de los datos para mejorar el resultado que quieres extraer, pero estamos viendo que una base de datos que sea de un 50 % hombres y un 50% mujeres tampoco va a dar unos resultados positivos de cara a la mujer porque, desde el punto de partida, estaría sesgada. Las empresas se plantean, además, que necesitan nuevos perfiles que nunca se han contratado con anterioridad, e incluso, otros que fueron descartados en el pasado, ahora sirven.
ORH.- En España hay dos modelos de auditoría, la auto auditoría que se fomenta desde el Gobierno y la auditoría realizada por terceros, promovida entre otras instituciones por IA+Igual. El problema es que no existe todavía ningún modelo certificado. ¿Cómo afrontan este tema otros países?
E.F-V.- El RIA anuncia la creación de estándares, pero todavía no están disponibles. A través de normativas ISO, por ejemplo, se analiza el cumplimiento de determinadas normas armonizadas acerca de aspectos concretos de la legislación. Pero el problema se complica todavía más porque, en la actualidad, la Unión Europea está poniendo el foco en algunos estándares que también están sesgados: por ejemplo, existe una norma ISO en la industria que muestran el cumplimiento con la Directiva de la Maquinaria sin considerar temas de género y, en algunos casos, determinadas máquinas son perjudiciales para la mujer. Por tanto, la UE plantea la creación de nuevos estándares armonizados de cara a todas las personas.
C.R.- La ambición es usar la IA, pero las empresas son conscientes de que se trata de un asunto delicado. No hay nadie que pueda garantizar qué porcentaje de hombres y mujeres debe tener una base de datos para que sea eficaz. Pero existe una cultura de respeto al dato dentro de la legalidad, entre otra cosa por el miedo a las multas.
En el artículo de investigación Equidad, IA y contratación, los investigadores Carlotta Rigotti y Eduard Fosch-Villaronga mencionan algunos ejemplos del uso de la IA en RR.HH -en algunos casos, pueden incluso superar a sus homólogos humanos-. Sin ánimo exhaustivo, perfilamos la cara y la cruz del uso de la IA en el proceso de selección:
VENTAJAS
- Atracción de candidatos: la IA puede colocar estratégicamente ofertas de empleo a través de diversos medios, como banners, ventanas emergentes, correos electrónicos y mensajes de texto, para maximizar la visibilidad y las respuestas.
- Selección de solicitudes: es capaz de agilizar el proceso y extraer habilidades específicas y rasgos de personalidad de los registros digitales de un solicitante de empleo.
- Límites geográficos: al superarlos con facilidad, puede acceder a una reserva global de talento sin la limitación que supone la proximidad física.
- Entrevistas: se reduce la carga administrativa asociada a la programación y coordinación de entrevistas.
- Fase de evaluación: puede convertirse en un aliado de los profesionales de RR. HH en la con la gamificación, por ejemplo.
- Bots de chat y asistentes virtuales: interactúa con los candidatos las 24 horas del día.
- Análisis predictivo y modelos de aprendizaje automático: podrían anticipar las necesidades de talento
INCONVENENTES
- Elevado coste: la creación y aplicación de esta tecnología conlleva costes considerables que otorgan una ventaja a las grandes empresas frente a las pymes.
- Uso datos personales y sensibles: para que las aplicaciones de IA funcionen eficazmente, necesitan datos personales, con el riesgo que supone para la privacidad y la protección de datos de los solicitantes de empleo.
- Derechos fundamentales: pueden llegar a comprometerlos.
- Transparencia y explicabilidad: la tecnología podría socavar la rendición de cuentas y la responsabilidad.