El proyecto IA+IGUAL se desarrollará en línea con la propuesta de regulación sobre IA que ha presentado la Comisión Europea y a la que han de adaptarse los países miembro en un plazo de dos años. En esta línea, el proyecto IA + IGUAL pretende establecer unas bases para el futuro desarrollo de IA en los procesos de gestión del talento con el fin de evitar que sus algoritmos reflejen estereotipos sociales y conduzcan a una toma de decisiones injusta y discriminatoria.
El proyecto IA+IGUAL cuenta con un Consejo Asesor integrado por profesionales de reconocida trayectoria en distintas áreas de conocimiento: formación, jurisprudencia, ética y filosofía, lenguaje computacional, gestión de la diversidad, políticas de empleo, nuevas tecnologías; la colaboración científica de la Universidad Politécnica de Madrid y un grupo de empresas que utilizan o desarrollan herramientas de recursos humanos soportadas en IA. Además, tiene carácter escalable y el objetivo de convertirse en el punto de partida para un modelo algorítmico ético y altamente eficiente en el campo de la IA aplicada a RRHH.
Por todo ello, IA+IGUAL tiene un fuerte carácter empírico que estudia, mediante un sistema de verificación de sesgos algorítmicos, casos reales en entidades que ya están empleando IA en sus procesos de contratación. Su plan de acción estará vertebrado por un itinerario de formación, un espacio de divulgación y sensibilización y el desarrollo de un sello de calidad que contribuya a generar una IA más igualitaria dentro del ecosistema empresarial de la Comunidad de Madrid.
En un contexto en el que la IA es una realidad implantada en todos los sectores de la sociedad, resulta de vital importancia detectar y analizar los posibles riesgos que puede conllevar su uso. Uno de esos ámbitos en el que su presencia ha crecido de manera exponencial es el de los Recursos Humanos, pues se emplea tanto en los procesos de reclutamiento y selección, tareas administrativas o control presencial como en la salud laboral y las condiciones salariales. Los sesgos que se desencadenan en la programación de esta IA son invisibles, mientras que sus efectos en las personas son evidentes. Es necesario, por tanto, analizar los modelos de aprendizaje de los algoritmos de IA aplicados en el mercado laboral.