Sesgos y RH: cómo y cuándo pervierte el dato el funcionamiento de la IA

Marisa Cruzado Collado23 enero 20246min
Los sesgos, que han existido siempre, se están convirtiendo en un quebradero de cabeza para los desarrolladores de herramientas de IA. Si además, estas herramientas se van a aplicar a procesos de recursos humanos, el problema es todavía mayor. La UE ha calificado de «alto riesgo» a esta tecnología en el ámbito del mercado laboral, puesto que puede afectar a los derechos de igualdad y atentar contra las normativas laborales de los países miembro. Entender cómo los sesgos se incrustan en la IA es un primer paso para que recursos humanos afronte el reto de transformación tecnológica que tiene entre manos. El equipo auditor del proyecto IA+Igual, reveló algunas claves en el II Pleno del Consejo Asesor que se celebró, a puerta cerrada, la semana pasada.

 

El contexto es claro. Los sesgos en la Inteligencia Artificial provienen de los datos. En general, los conjuntos de datos incluyen desequilibrios y discriminaciones existentes en la sociedad. Pensemos en el famoso Big Data, en el Cloud… Los millones y millones de datos que están almacenados y que se utilizan para alimentar los algoritmos matemáticos y estadísticos en que se basan las herramienta de IA son un reflejo de la desigualdades sociales y por tanto, se replican.

Por otro lado, la subjetividad humana en la manera de usar el algoritmo y de programar su modelo de aprendizaje, puede también estar sesgada. Si entendemos que los datos almacenados representan por lo general hechos y decisiones del pasado de una sociedad llena de sesgos, entenderemos por qué se dice que estos sesgos causan errores en el uso de la IA.

El equipo auditor de IA+Igual

El equipo de auditores del proyecto IA+Igual, que trabaja en el desarrollo de un modelo ético y confiable de auditoría algorítmica en el ámbito de los recursos humanos, afirma que hay seis momentos durante la creación de un algoritmo en los que se pueden filtrar, de manera inconsciente, estos sesgos.

Sesgos según la fase del algoritmo
  1. Recopilación de datos. Si los datos históricos utilizados para entrenar el algoritmo reflejan desigualdades o prejuicios existentes en las decisiones pasadas realizadas por humanos (como sesgos de género, raza, edad, etc.), el algoritmo puede aprender y perpetuar esos sesgos.
  2. Preprocesamiento de datos: Durante la limpieza y preparación de datos, ciertas características podrían ser excluidas o tratadas de manera incorrecta, lo que puede llevar a la exclusión involuntaria o subrepresentación de grupos minoritarios. Esto se da, por ejemplo, cuando quizá no son representativos o influyentes en la muestra.
  3. Selección de características: Al elegir características relevantes para el modelo, si se seleccionan únicamente variables que reflejan las prácticas pasadas (que pueden ser discriminatorias), se podría perpetuar el sesgo en las decisiones del algoritmo.
  4. Elección del algoritmo: Algunos algoritmos pueden ser, por naturaleza y por la forma en que tratan los datos, más susceptibles a la amplificación de sesgos. Por ejemplo, los modelos lineales podrían acentuar los sesgos existentes si se alimentan con datos sesgados.
  5. Entrenamiento del modelo: Si se utilizan conjuntos de datos desequilibrados o sesgados para entrenar el modelo, este puede aprender a favorecer ciertos grupos y discriminar a otros.
  6. Evaluación del modelo: Al no considerar métricas específicas que evalúen la equidad y la imparcialidad en la toma de decisiones (como la precisión por grupo demográfico), se podría pasar por alto la presencia de sesgos en el modelo.

El hecho es que las herramientas de Inteligencia Artificial aplicada a procesos de recursos humanos como la selección de candidatos, la evaluación del desempeño, la fuga de talento o la transparencia retributiva, pueden tener sesgos sin que el departamento de recursos humanos sea consciente de ello. El resultado, en el mejor de los casos, será una desviación que afecte a la eficiencia del proceso. En el peor, puede suponer infracciones de la normativa laboral y tener consecuencias económicas, reputacionales e incluso penales.

Campus IA+Igual

Puesto que el uso de la IA se presenta como una herramienta de productividad y competitividad que, tarde o temprano, estará presente en toda la organización, es fundamental revisar cuidadosamente cada etapa del proceso de creación del algoritmo para identificar, mitigar y corregir posibles sesgos. La formación y el conocimiento son, en este punto, la clave para posicionar a recursos humanos a la cabeza del proceso de cambio que, sin duda, acometerán todas las empresas en el corto y medio plazo.

El proyecto IA+Igual ha puesto en marcha un campus de formación dirigido a profesiones de la función de recursos humanos, agentes sociales y representantes de los trabajadores que sirva como punto de partida para el proceso de adaptación a la IA. Comienza con un ciclo de webinars que se completarán con cuatro itinerarios formativos gratuitos. Estos itinerarios pondrán el foco en facilitar  el conocimiento necesario para tomar decisiones de inversión, evitar problemas reputacionales, canalizar el conocimiento dentro de su organización y garantizar sus objetivos de diversidad, equidad e inclusión.


Observatorio de Recursos Humanos

ORH | Observatorio de Recursos Humanos

Desde 2006 trabajamos para ofrecer contenidos e información de valor para el profesional de la gestión de RRHH, con el convencimiento de que el conocimiento, en sus vertientes de creatividad, innovación y aprendizaje continuo, es el principal valor de una dirección eficaz.



Contacta con nosotros


Nuestros Otros Proyectos


Suscríbete al boletín

* campos obligatorios
Acepto las condiciones de uso y la política de privacidad


Síguenos en Redes Sociales