IA+Igual está analizando casos de uso reales de IA para determinar el impacto de los sesgos inconscientes en las herramientas de inteligencia artificial (IA) aplicadas a procesos de RR. HH y, por tanto, ha preguntado a directivos de 264 empresas acerca de este tema: a pesar de que los sesgos es uno de los riesgos que más preocupa de la implantación de la IA generativa (IAg) al 57,6% de los encuestados, se eleva al 61,7 el porcentaje de los profesionales que admite no conocer el impacto que pueden llegar a tener y el 59,8% desconoce cómo pueden afectar estos sesgos a los resultados del uso de la IA.
“Los sesgos son un mecanismo de supervivencia y, por tanto, son inherentes a la condición humana. Nuestro proyecto investiga de manera empírica cómo estos sesgos se introducen de forma consciente o inconsciente en las herramientas de IA aplicadas a procesos de recursos humanos. El objetivo es definir un sistema de certificación que garantice que el uso de estas herramientas favorece el trato equitativo de las personas en procesos de selección o carrera profesional, por ejemplo, y que solo tienen en cuenta las habilidades, conocimientos y experiencias de la persona y no cuestiones personales como su género, procedencia, edad, etcétera. Con IA+Igual queremos poner a la persona en el centro de la IA”, explica Marisa Cruzado, creadora del Proyecto IA+Igual.
En el Estudio sobre la IA en el área de talento: ¿Realidad o ficción?, IA+Igual pone el acento sobre los sesgos que se pueden generar en el uso de la IA en Recursos Humanos. Este estudio es uno de los hitos de desarrollo de este proyecto de innovación social cofinanciado por la Dirección General de Evaluación, Calidad e Innovación, de la Consejería de Familia, Juventud y Asuntos Sociales de la Comunidad de Madrid, a través del Plan de Recuperación, Transformación y Resiliencia de la Unión Europea. Su objetivo es analizar y verificar los algoritmos de Inteligencia Artificial aplicados en el ámbito de RR. HH para identificar los sesgos en su programación e impulsar una IA más ética e igualitaria dentro del ecosistema empresarial.
El futuro de la IA está en manos de … ellos
La Universidad de Stanford planteaba a finales de junio en Artificial Intelligence Index Report 2024 que las principales empresas de IA y los datos utilizados para el entrenamiento de modelos proceden de países occidentales, por lo que reflejan perspectivas sesgadas. “En el caso de los datos sesgados de género, la IA puede propagar y reforzar estereotipos de género perjudiciales”, explica Cruzado.
Standford incluye, por vez primera, datos procedentes de Informatics Europe que arrojan luz sobre las tendencias de la diversidad en la enseñanza europea de las ciencias de la computación. En todos los países europeos encuestados hay más licenciados que licenciadas en programas de grado, máster y doctorado en Informática, Ciencias de la Computación (CC), Ciencias de la Educación (CE) y Tecnologías de la Información (TI).
Mientras que la brecha se ha ido ha reducido en la última década en la mayoría de los países, en España ha aumentado, por lo que la cantera de talento será mayoritariamente masculina y las mujeres, minoría a la hora de tomar decisiones. Si en 2011 el porcentaje de nuevas licenciadas en Informática, CC, CE y TI era de 21,66% en España, en 2022 descendió a 14,32%. En el caso de nuevas doctoradas, la cifra descendió de 25,39% a 20,25%.
Enfoque proactivo para favorecer la diversidad
Para que la IA siga aumentando significativamente la eficiencia en diversos procesos de Recursos Humanos, especialmente en el reclutamiento y la gestión del talento, IA+Igual apuesta por modelos de IA centrados en la persona, que sea justos y no discriminatorios, que eviten o mitiguen los sesgos en sus decisiones y que permitan una explicabilidad, en la medida de lo posible, acerca de cómo se adoptan las decisiones basadas en IA. Los expertos del Consejo Asesor de IA+Igual proporcionan algunas claves que debe adoptar de forma proactiva el área de Talento para conseguirlo:
- Visión multidisciplinar: la IA es tan compleja como el ser humano y demanda un gran capital intelectual
diverso para acometer los retos y los desafíos de nuestra propia creación de manera inteligente. - Constante supervisión humana, evaluación y ajuste de los algoritmos: asegurar la precisión
objetividad, privacidad y seguridad de los datos que usan los algoritmos para conseguir el anonimato y
equilibrio de los datos y, por tanto, reducir las distorsiones. - Sistemas transparentes y flexibles: deben adaptarse a las necesidades específicas de cada organización,
sin dejar que prime exclusivamente la visión tecnológica. - Evitar la brecha digital: fomentar que accedan a los beneficios de la incorporación de la IA a la empresa
todos los profesionales y no solo aquellos más capacitados digitalmente y con mayor acceso a los
recursos tecnológicos necesarios.