La irrupción de la Inteligencia Artificial (IA) en el ámbito laboral está generando un profundo impacto en el cumplimiento normativo y en la gestión de los recursos humanos. Desde la regulación de los algoritmos en los convenios colectivos hasta la aplicación del Reglamento de Inteligencia Artificial de la Unión Europea (RIA), las empresas deben adaptarse a un marco legal en constante evolución. Hablamos con Estela Martín, miembro de la Red de Embajadores de IA+Igual, sobre los efectos de lA en los avances logrados en materia de Igualdad y RSC.
La necesidad de transparencia y control humano en la toma de decisiones automatizadas es clave para garantizar la equidad y evitar riesgos legales. En este contexto, resulta fundamental entender cómo las normativas actuales intentan dar respuesta a los desafíos de la IA en el mundo del trabajo y si realmente están preparadas para ello.

Para profundizar en ello, Estela Martín Estebaranz, abogada y Directora de Comunicación de Sincro, además de embajadora de IA+Igual, analiza los desafíos legales que supone la IA en la gestión de personas, el papel de la negociación colectiva y las medidas que pueden adoptar las empresas para asegurar un uso ético y responsable de esta tecnología.
ORH.- ¿Qué nuevos desafíos legales plantea la automatización y el uso de IA en el entorno laboral?
Estela Martín Estebaranz-. Los desafíos tanto normativos como en el plano de la dirección estratégica de personas (recursos humanos) son enormes por la velocidad a la que va la irrupción de la inteligencia artificial y porque estamos ante uno de los mayores desafíos en materia de relaciones laborales de los últimos años. La IA puede suponer un enorme cambio en cuestiones clave como los procesos de selección, la automatización de procesos, la gestión de determinados departamentos o áreas de la empresa, la formación (y no solo, que por supuesto es fundamental, en competencias digitales, sino en cómo entienden las empresas la formación) o incluso la desvinculación de personas de la plantilla.
Marco normativo
ORH.- ¿Cómo está impactando la inteligencia artificial en el cumplimiento normativo dentro de los departamentos de RRHH?
E. M.- Por un lado, empezamos a ver ya (aunque tímidamente) algunos convenios colectivos regulando el uso de la inteligencia artificial. En este sentido, el V Acuerdo para el Empleo y la Negociación Colectiva (V AENC) ya aborda expresamente la IA, con cuestiones muy concretas como la garantía del principio de control humano y derecho a la información sobre los algoritmos. Y destacando que la negociación colectiva debe desempeñar un papel fundamental estableciendo criterios que garanticen un uso adecuado de la IA y sobre el desarrollo del deber de información periódica a la representación de los trabajadores.
Ya tenemos algunos convenios (aunque todavía pocos) regulando el uso de la IA. A título de ejemplo, el Convenio colectivo para los establecimientos financieros de crédito BOE de 17 de julio de 2024 o el Convenio colectivo del sector de la banca (BOE de 20 de diciembre de 2024).
También tenemos recogida expresamente la IA en la Ley 15/2022 de igualdad de trato y no discriminación, donde se determina que uno de los ámbitos de aplicación es la Inteligencia Artificial y gestión masiva de datos, así como otras esferas de análoga significación. Asimismo, también se determina (aunque a modo de declaración de intenciones) que “las administraciones públicas y las empresas promoverán el uso de una Inteligencia Artificial ética, confiable y respetuosa con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea en este sentido”
Y a nivel de derecho comunitario, muy importante recordar que el pasado 2 de febrero entró en vigor la primera parte del RIA (Reglamento de Inteligencia Artificial) que, entre otras cuestiones, establece la prohibición del uso de IA para reconocer emociones en el ámbito laboral y/o educativo (salvo excepciones por motivos médicos o de seguridad). Unido a esto, el 4 de febrero, la Comisión Europea publicó las Directrices sobre prácticas de IA prohibidas de conformidad con lo establecido en el RIA. En este sentido, la Comisión ofrece una descripción general de las prácticas de IA que se consideran inaceptables debido a sus riesgos potenciales para los valores y los derechos fundamentales europeos.
Recursos humanos en jaque
ORH.- ¿Cómo afecta esta introducción de la IA en la toma de decisiones laborales a los derechos de los trabajadores?
E. M.- Por un lado, las empresas deben tener muy presente que en el Estatuto de los Trabajadores ya se establece expresamente (art. 64.4.d) el derecho a la información sobre los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, acceso y mantenimiento del empleo, incluida la elaboración de perfiles.
Luego, además del cumplimiento normativo, desde la perspectiva de la dirección estratégica de personas y las políticas de Responsabilidad Social Corporativa, las empresas deberían ser muy conscientes de la importancia de abordar bien y desde la ética el aterrizaje de la IA en su compañía. De nada nos sirve tener un Plan de Igualdad registrado en el REGCON si luego usamos catálogos para nuestras medidas de conciliación de la vida personal, familiar y laboral usando imágenes generadas con IA que perpetúan todo tipo de sesgos.
ORH.- ¿Cree que las leyes laborales actuales están preparadas para abordar los problemas derivados del uso de IA en la gestión de recursos humanos?
E. M.- La IA va a tal velocidad que es muy difícil acompasar la norma a la realidad que nos pasa por encima. En todo caso, el espíritu del RIA de la Unión Europea es la protección y salvaguarda de los derechos humanos (a diferencia de las visiones de otros países sobre la IA). Habrá que ir viendo qué sucede con la irrupción generalizada de la IA en las empresas e ir viendo si la normativa que tenemos es necesaria y/o la que realmente se adapta a la situación que vamos teniendo en cada momento.
ORH.- ¿Cree que la IA puede ayudar a las empresas a evitar riesgos legales en la gestión de personas o, por el contrario, podría generar más problemas de compliance?
E. M.- Como todo, la tecnología nunca es el problema; lo es el uso (bueno o malo; lícito o no ) que hagamos de ella. Un sistema de IA bien implantado puede ayudar a facilitar medidas como por ejemplo la jornada de 37,5 horas (suponiendo que finalmente consiga aprobarse la medida y la veamos en BOE), mejorar sustancialmente la PRL, dar un salto cualitativo en materia de formación de las personas trabajadoras… pero mal implantado puede conllevar discriminaciones y no solo de género.
Una cosa es que la normativa prohíba expresamente la discriminación a través del uso de algoritmos de IA y otra que esto se cumpla realmente en todas las organizaciones y que se pueda probar, llegado el caso, que una persona ha sido discriminada por una herramienta algorítmica.
ORH.- ¿Qué deben hacer las organizaciones para garantizar que los algoritmos de IA aplicados a RRHH respeten la normativa?
E. M.- Si hay comité de empresa (RLT) lo primero es asegurarse de cumplir lo que se establece en el Estatuto de los Trabajadores. El comité tiene derecho a ser informado por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones y que pueden incidir en las condiciones de trabajo. Además, es fundamental analizar lo que pueda establecer el convenio colectivo-Pr ee P.ej. el Convenio de Banca determina expresamente que “«Las personas trabajadoras tienen derecho a no ser objeto de decisiones basadas única y exclusivamente en variables automatizadas, salvo en aquellos supuestos previstos por la ley, así como derecho a la no discriminación en relación con las decisiones y procesos, cuando ambos estén basados únicamente en algoritmos, pudiendo solicitar, en estos supuestos, el concurso e intervención de las personas designadas a tal efecto por la Empresa, en caso de discrepancia.”
Y en todo caso, las empresas deberían estar muy bien asesoradas a la hora de plantear el uso de IA en procesos de recursos humanos. Y un tema muy importante: si se externaliza por ejemplo todo o parte del proceso de selección, una empresa, llegado el caso, no se va a poder excusar en que es la consultora externa de selección, caza talentos… quien ha incurrido en discriminación o usos prohibidos de la IA. La empresa es directamente responsable. De la misma forma, hay que tener en cuenta no solo la normativa laboral, sino también la normativa de protección de datos.
Pautas del Ministerio de Trabajo
ORH.- ¿Cómo pueden las empresas garantizar que sus sistemas de IA sean transparentes y comprensibles para los empleados?
E. M.- En la Guía sobre “Información Algorítmica en el ámbito laboral” que elaboró el Ministerio de Trabajo se expone que la referencia a «los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial» del artículo 64.4.d) ET debe interpretarse —sin perjuicio de la falta de consenso técnico sobre la interpretación de estos términos— como la obligación de la empresa de proporcionar información referente a (a) las variables y los parámetros, entendidos como la importancia relativa de cada variable en la algoritmo; y (b) las reglas e instrucciones, referentes a las reglas de programación que conducen a la toma de la decisión. En esencia, la referencia conjunta a «parámetros, reglas e instrucciones» debe entenderse referida a la lógica, a las características de funcionamiento del algoritmo y a sus consecuencias
ORH.- ¿Cree que la IA puede ser una aliada en la reducción de la brecha de género en la contratación y promoción de talento, o puede reforzar sesgos existentes?
E. M.- Por el momento, lo que estamos viendo es que se perpetúan los sesgos, Solo hay que pararse a analizar las imágenes y los textos creados por IA. Y esos sesgos no son solo de género, sino también de edad, condición física (en una mayoría abrumadora las imágenes de IA ilustran personas delgadas o incluso excesivamente delgadas, bellas…), discapacidad, procedencia… Las imágenes creadas por IA no representan la diversidad. Y si no incidimos en esto corremos el riesgo de tener un retroceso en materia de igualdad real en las organizaciones.
ORH.- ¿Qué papel juegan los sesgos en los datos históricos al entrenar modelos de IA para la selección de talento?
E. M.- Detrás de la IA hay humanos y no podemos verlo de vista. A modo de ejemplo, el Estudio de Empleabilidad y Talento Digital 2024, realizado por la Fundación VASS y la Fundación Universidad Autónoma de Madrid, pone sobre la mesa la alarmante brecha de género en el desarrollo y adopción de la IA, con solo un 22% de las mujeres participando activamente en esta disciplina según datos del Foro Económico Mundial de la UNESCO.
Además, el sector TIC tiene una brecha de género significativa, ya que solo el 29,8% de los ocupados en el sector son mujeres, frente al 46,3% en el resto de la economía española.
En definitiva, el papel de los sesgos es fundamental y necesitamos visibilizarlo para evitar incurrir en un retroceso en materia de igualdad.
ORH.- ¿Qué precauciones deberían tomar las empresas al implementar herramientas de IA para garantizar que promuevan una verdadera igualdad de oportunidades?
E. M.- Hay que empezar por lo sencillo para después ir a lo más complejo. Y por sencillo me refiero por ejemplo a analizar cómo se está usando ya la IA y de qué manera. Si estamos utilizando por ejemplo IA para crear mensajes de comunicación corporativa, ilustrar presentaciones corporativas de powerpoint, catálogos de medidas de planes de igualdad… lo primero es analizar detenidamente que realmente no estamos incurriendo en sesgos de ningún tipo, que las imágenes no perpetúan sesgos y que se representa la diversidad.
Y luego por supuesto como hemos comentado, asegurarse de cumplir toda la normativa en la materia y estar bien asesorados.
Recomendaciones a tener en cuenta
ORH.- ¿Cuáles son las principales recomendaciones que darías a las empresas que quieren implementar IA en RRHH sin comprometer la equidad y la diversidad?
E. M.- Contar con un experto formado en materia de igualdad y diversidad, analizar cómo se está usando ya la IA en la empresa y para qué y con qué fines, asegurarse de cumplir lo establecido en la normativa, ir preparando la empresa para la normativa que va a entrar en vigor en el futuro (como es el caso de la parte del RIA que aún no ha entrado en vigor) y apostar realmente por un uso ético y responsable de la IA
ORH.- En este contexto, ¿Cómo de importante cree que son proyectos como IA+Igual, del que es embajadora?
E. M.- Proyectos como el de IA+Igual son muy necesarios porque estamos a tiempo de concienciar a las empresas de la importancia de apsotar por un uso ético, responsable, desde el buen gobierno, de la IA y de que un mal uso de la IA, aparte de las posibles consecuencias legales que de ello puedan derivarse, puede suceder un retroceso en materia de igualdad (y no solo de género, sino también de edad, discapacidad…) y en materia de diversidad.
Además, IA+Igual está enfocada en el análisis, los datos y el conocimiento que son fundamentaes para tomar las decisiones adecuadas sobre IA y, sobre todo, para tomar conciencia de en qué punto estamos y qué podemos hacer para conseguir realmente un uso adecuado y ético de la IA en el plano de la dirección estratégica de personas.
Uno de los focos del proyecto IA+Igual es compartir el conocimiento y esto es una pieza fundamental cuando hablamos de algo tan novedoso y disruptivo como la IA. Y a futuro pienso que será muy interesante una de las iniciativas que tiene IA+Igual que es el futuro desarrollo de un Libro Blanco con recomendaciones para un modelo de certificación y sello de calidad específico del ámbito laboral, escalable a nivel nacional y europeo.