En el ámbito de Recursos Humanos, la Inteligencia Artificial emerge como una aliada estratégica. Puede desempeñar un papel fundamental al analizar datos para mejorar la comprensión de cómo funcionan las empresas y, en consecuencia, tomar decisiones más informadas. En cualquier caso, el uso de IA en el ámbito del mercado laboral y los recursos humanos ha sido calificado como de alto riesgo por la Unión Europea y, una vez aprobada la legislación, la supervisión humana seguirá siendo imprescindible.
La gran cantidad de información que se maneja desde el área de gestión de personas hace imprescindible que se haga un buen tratamiento y estudio de ella. Entrevistamos a Yolanda Gutiérrez, especialista en People Analytics y miembro del Consejo Asesor de IA+Igual para hablar sobre cómo el uso de la analítica de datos puede ayudar a entender a las empresas “qué está sucediendo”, “por qué está sucediendo” y “qué podría suceder en el futuro”. Según Gutiérrez, es en ese momento cuando entra en juego la Inteligencia Artificial, que puede ayudar a las empresas a establecer patrones de comportamientos actuales y futuros así como predecir qué acontecimientos se pueden dar en el corto y medio plazo.
Yolanda Gutiérrez, que es además, socia de Eversheds Sutherland, afirma en este sentido que los ejes fundamentales en los que la IA se ha de centrar en el corto y medio plano son:
- La automatización de procedimientos
- La toma de decisiones
- El estudio de patrones de comportamiento
- La producción de acontecimientos futuros
La experta, que forma parte del Consejo Asesor de IA+Igual, reconoce que en la actualidad no hay todavía muchas organizaciones que hayan incorporado modelos de IA en sus plataformas de gestión de personas. Sin embargo, su incorporación cada vez es más tangible, por lo que conviene estudiar sus posibles desafíos. “Los retos principales son la privacidad de la información y la protección de datos, la transparencia de los modelos y algoritmos, y la explicabilidad de los resultados que se obtengan al aplicarlos”, enumera.
El papel fundamental de la ética
Las decisiones que se tomen en el departamento de RRHH en base al uso de los algoritmos y la IA afectan directamente a las personas. Es por ello por lo que Yolanda Gutierrez, miembro del Consejo Asesor de IA+Igual, considera clave el papel de la ética en este ámbito. Advierte cómo “el sesgo y la discriminación inherentes en los datos que son utilizados para entrenar los algoritmos” pueden “hacer que se perpetúen dichos sesgos en la toma de decisiones”, afectando así a los derechos fundamentales de los trabajadores.
Proyectos como el de IA+Igual contribuyen a hacer de esta tecnología “una herramienta que facilite la toma de decisiones para que éstas sean objetivas, buenas para la empresa y para los empleados”. Pero para que esto se cumpla, Gutiérrez considera que las organizaciones deben contar con “unos procedimientos de supervisión exhaustivos, que aseguren que los datos de entrenamiento están libres de sesgos y que validen las decisiones tomadas por los algoritmos”. Y añade: “La supervisión humana será siempre imprescindible”.
Y, ¿Cuál es el pilar fundamental para para conseguir la no discriminación en el uso de la IA? Gutiérrez lo tiene claro: “La limpieza previa de los datos”. Esto implica asegurar que la información utilizada en el entrenamiento de los algoritmos no contenga sesgos. Para lograrlo, es crucial que exista transparencia en cuanto al funcionamiento de esta tecnología y la información que la alimenta. “En este contexto surge el proyecto IA+Igual, cuyo principal objetivo es crear una metodología de auditoría para certificar la ausencia de sesgos en los algoritmos utilizados en los departamentos de RRHH”, añade.
Gutiérrez es optimista, y asegura que “si logramos que la IA esté libre de sesgos, y que se haga una buena toma de decisiones a partir de los resultados obtenidos de los algoritmos”, las empresas podrán “lograr una gestión integral de la diversidad, asegurando entornos de trabajo diversos y donde la inclusión surja de manera natural”.