Cómo conseguir una IA ética en los recursos humanos

Redacción28 octubre 202111min

Los equipos de recursos humanos están adoptando cada vez más las aplicaciones de inteligencia artificial (IA) para ayudar a la contratación, la gestión del rendimiento, y la sucesión y asignación de tareas. Y todo ello ha desencadenado la necesidad de desarrollar normas de cumplimiento. Pero, como la tecnología ha avanzado más rápido que la normativa, las organizaciones se han encargado de autoevaluar la eficacia de sus aplicaciones de IA. Aunque eso está a punto de mejorar.

Los profesionales de recursos humanos se van a convertir en pilotos de algoritmos de inteligencia artificial. Con más regulaciones por delante, entender y guiar la tecnología en la dirección correcta será primordial para su éxito.

Nuevas normas


La Unión Europea ha propuesto recientemente un marco normativo basado en el riesgo, que obliga a las organizaciones a cumplir con nuevas normas para adoptar la inteligencia artificial. La propuesta identifica específicamente los sistemas de IA para RRHH, entre otros, como de alto riesgo, y aconseja una supervisión y unos requisitos adecuados para abordar las preocupaciones sobre seguridad y derechos humanos fundamentales.

Según la propuesta, los sistemas de IA de alto riesgo requerirán supervisión humana, medidas de transparencia añadidas, datos de formación de alta calidad para evitar sesgos, y documentación para que reguladores y usuarios entiendan cómo funciona el sistema.

No cabe duda de que se necesitan buenas normas de cumplimiento. Los sistemas de IA en RRHH harán recomendaciones que afectan a millones de personas. Y no estamos hablando de motores de recomendación que influyan en las personas para que compren una PlayStation en lugar de una Xbox (¡también puedo ayudarte con eso si necesitas consejo!).

Esta IA se encargará de influir en cuestiones personales serias e impactantes, como: ‘¿Voy a conseguir este trabajo o no?’ ‘¿Voy a conseguir este ascenso o no?’ ‘¿Voy a tener acceso a la formación adecuada?’. Y por eso se señala a los RRHH como de alta responsabilidad y, por tanto, de alto riesgo.

Aunque todavía no sabemos cuándo adoptará la UE el reglamento propuesto, o su versión final, las normas de cumplimiento van a ser más estrictas. Corresponde a las organizaciones considerar el riesgo y operar de forma ética, tanto si ya utilizan sistemas de IA, como si están pensando en adoptarlos.

Probando y supervisando la tecnología, desarrollando un profundo conocimiento de su funcionamiento y aumentando la transparencia sobre su utilización, los equipos de RRHH pueden beneficiarse de los sistemas de IA a la vez que protegen a su gente.

La gestión de riesgos de la IA en los RRHH hoy en día

En la industria de los RRHH, todavía no hemos establecido el cursor de la gestión de riesgos entre “seamos cautelosos y tomemos el tiempo para probar” e “innovemos y avancemos rápido”.

HireVue, una empresa de tecnología de entrevistas por vídeo, es un ejemplo de una organización que está innovando rápidamente, pero que, en última instancia, está deteniendo el avance de la IA debido a la preocupación por los derechos humanos fundamentales. La organización utilizaba antes la IA para evaluar visualmente la capacidad de contratación de un candidato durante las entrevistas por vídeo. Tras reconocer que los datos no verbales apenas contribuían a la capacidad de predicción de la IA y la creciente preocupación por la posibilidad de que la tecnología contribuyera a un posible sesgo de género y racial, HireVue eliminó las expresiones faciales como factor en sus algoritmos. Y reiteraron su postura contra esta práctica en un reciente compromiso de transparencia. Las normas y regulaciones de cumplimiento basadas en el riesgo pueden ayudar a evitar estos problemas.

Categorizar correctamente los datos que recopila la IA

En Cornerstone, queremos aprender de estas experiencias y desarrollar un enfoque seguro que integre las consideraciones de riesgo en los equipos de desarrollo. Por ejemplo, evitamos utilizar información que pueda dar lugar a discriminación. Hay revisiones continuas de la calidad de los datos, así como del funcionamiento de los algoritmos, y se utiliza más de un tipo de cálculo para reducir el riesgo de sesgo. Los algoritmos no toman decisiones por los profesionales de RRHH, sino que permiten a los individuos revisar lo que la máquina propone como entrada para su proceso de toma de decisiones.

Esta práctica nos proporciona una revisión humana y nos permite trabajar en la precisión del algoritmo. Si de repente nos damos cuenta de que la gente rechaza la salida del algoritmo en un porcentaje elevado, sabemos que algo va mal y podemos investigar.

Nuestro sistema permite a nuestro equipo abordar de forma proactiva los problemas de riesgo y seguridad, lo que puede ayudar a evitar trampas de cumplimiento –por no mencionar el sesgo y la discriminación involuntarias–, incluso mientras desarrollamos aplicaciones de IA más sólidas.

Preguntas que hay que hacer al examinar los sistemas de IA

Mientras que empresas como Cornerstone y HireVue están desarrollando IA directamente para los equipos de RRHH, muchos subcontratan herramientas a proveedores. A medida que los líderes de RRHH evalúan las soluciones de IA para implementar en su organización, hacer estas preguntas puede ayudar a reducir el riesgo y mantener el cumplimiento:

  1. ¿Quién construyó la tecnología? ¿Cómo y de dónde provienen los datos?
    Entender dónde y cómo se desarrolla la tecnología de IA puede permitir a los equipos de RRHH investigar el marco ético de su proveedor. Y saber de dónde provienen los datos puede darles más confianza y control sobre los resultados. En particular, se deben examinar los tipos de datos y las variables discriminatorias, el tamaño del conjunto de datos (¿es la población de origen de los datos lo suficientemente grande?), y si los datos se revisan regularmente para garantizar su calidad.
  2. ¿Qué controles y equilibrios existen para reforzar el uso ético?
    Preguntar al proveedor sobre sus controles y equilibrios proporciona a los equipos de RRHH la confirmación de que se están asociando con una organización comprometida con el uso ético. Conocer el proceso de pruebas del proveedor también les permite saber qué pruebas se realizan durante el desarrollo. Por ejemplo, se puede preguntar si el proveedor tiene un DPO y si éste participa en el diseño, el desarrollo o las pruebas de los algoritmos.
  3. ¿Cómo voy a utilizar la tecnología?
    Si los equipos de RRHH se limitan a aceptar todas las recomendaciones del algoritmo, podrían no reconocer las desviaciones en los resultados y, lo que es peor, no aportar el valor añadido del ojo humano. Y si no supervisan la tecnología de forma continuada, los equipos no podrán escalar las preocupaciones desde el principio. Y recuerde: si los humanos que utilizan la tecnología no están capacitados para identificar los sesgos, el sistema tampoco lo estará. El ciclo de retroalimentación (tanto manual como automatizado) es muy importante, por lo que es recomendable, por ejemplo, establecer una revisión periódica de los resultados.
  4. ¿Cómo utilizarán mis empleados la tecnología para detectar el sesgo?
    No siempre es obvio el origen de las decisiones algorítmicas. Animo a los usuarios a que observen los resultados de la IA y se pregunten “¿cuál es la relación?”. Aunque no podamos explicar en detalle cada recomendación individual, podemos explicar la lógica que hay detrás del sistema en su conjunto de una manera que todos entiendan. Así tendremos a todo el colectivo mirando los resultados.
La importancia de supervisar el algoritmo de la IA

Tanto los proveedores como los usuarios tienen un papel que desempeñar para garantizar que el uso de la IA sea ético y conforme a la normativa mediante la responsabilidad compartida de las pruebas y la supervisión. Los proveedores deben probar la tecnología en busca de sesgos a lo largo del desarrollo, pero no hay forma de garantizar que vaya a ser 100% perfecta. Por eso, los usuarios también tienen la responsabilidad de seguir supervisando la tecnología de forma continua. Pueden producirse desviaciones que son muy difíciles de prever, por lo que es necesario probar la tecnología a medida que se construye, y supervisar la tecnología a medida que se utiliza.

A medida que los profesionales de RRHH dan los siguientes pasos para imponer el uso ético de la IA, pueden conceptualizar su papel imaginando un piloto y un avión.Todos tenemos la idea del piloto sosteniendo los controles de vuelo y dirigiendo el avión, pero no ha funcionado así durante años. En su lugar, el piloto introduce la ruta de vuelo en un ordenador, y el ordenador hace girar el avión.

Los profesionales de RRHH se van a convertir en pilotos de algoritmos de IA. Con más regulaciones por delante, entender y guiar la tecnología en la dirección correcta será primordial para su éxito.

 

José Rodríguez
Data protection officer en Cornerstone On Demand


Observatorio de Recursos Humanos

ORH | Observatorio de Recursos Humanos

Desde 2006 trabajamos para ofrecer contenidos e información de valor para el profesional de la gestión de RRHH, con el convencimiento de que el conocimiento, en sus vertientes de creatividad, innovación y aprendizaje continuo, es el principal valor de una dirección eficaz.



Contacta con nosotros


Nuestros Otros Proyectos


Suscríbete al boletín

* campos obligatorios
Acepto las condiciones de uso y la política de privacidad


Síguenos en Redes Sociales