La aprobación de la primera normativa sobre Inteligencia Artificial de la Unión Europea marcará un antes y un después en la cultura y el uso de los algoritmos. Hablamos sobre sus implicaciones en el mundo laboral y cómo afecta esta Ley a los trabajadores con Jesús Mercader, catedrático de Derecho del Trabajo y la Seguridad Social de la Universidad Carlos III de Madrid, profesional de la abogacía y miembro del Consejo Asesor de IA+Igual.
ORH.- Como experto en Derecho del Trabajo y Seguridad Social, ¿Cuáles considera que son las principales ventajas y desafíos que surgen con la implementación de IA en las empresas?
Jesús Mercader.- Creo que los desafíos son muchos, porque el conjunto del uso de los sistemas de inteligencia artificial se puede generalizar prácticamente a la totalidad de actividades que desarrolla la empresa en relación con sus trabajadores. Abarca todos los espacios propios de acción empresarial: los procesos de selección, la facultad de dirección, las facultades de control en materia de prevención de riesgos laborales… Su uso podría ser factible incluso en el momento de la rescisión de contrato, haciendo que la IA calculara las indemnizaciones.
El uso que puede tener es enorme, porque los aspectos esenciales del poder de dirección y control empresarial se pueden delegar en la inteligencia artificial. Al mismo tiempo, cada una de estas situaciones plantea problemas: en ocasiones vinculados con los derechos fundamentales de los trabajadores, con la discriminación algorítmica, con el uso de datos biométricos…
Por otro lado, creo que entre las ventajas están las facultades que la Inteligencia Artificial va a dar a las empresas. Muchos de estos sistemas pueden ayudar a hacer una actividad empresarial más precisa, a buscar una mayor productividad y en muchas ocasiones, a rebajar costes.
El nuevo reglamento de la IA
ORH.- ¿Qué beneficios puede tener la ley de IA de la UE y cuáles de las medidas presentadas considera las más importantes en términos de protección de los derechos de los trabajadores?
J.M.- El reglamento de inteligencia artificial que se ha aprobado en la Unión Europea es un instrumento muy importante. En unas jornadas pasadas decía que era como ponerle puertas al campo, porque el desarrollo innovador y transformador de todos estos sistemas es muy difícil de regular. Por eso esta Ley es un paso importante
La garantía de esta normativa es que los sistemas de inteligencia artificial que se utilizan sean seguros y fiables. Establece cosas muy interesantes, como por ejemplo la prohibición de determinados sistemas de IA —como aquellos vinculados al control de las emociones— o la clasificación de estos según su peligrosidad, que a su vez implica incorporar una serie de garantías como la transparencia, la trazabilidad, que haya siempre un humano al mando, los derechos de información de los trabajadores y de sus representantes…. Esto último es muy importante y creo que todavía no se ha subrayado lo suficiente; el reglamento establece la obligación de informar a los representantes de los trabajadores y a los trabajadores del despliegue de estos sistemas de IA.
Esta normativa parte de que esta es una actividad de riesgo, que requiere de unas garantías y un sistema de responsabilidades muy intenso. En el caso de que se incumplan con esas obligaciones y limitaciones, las sanciones tienen que ser fuertes para lograr desincentivar claramente el mal uso de estos sistemas (por los efectos perjudiciales que pueden tener para la sociedad en su conjunto y para los trabajadores).
ORH.- En su opinión, ¿se espera que la Ley de Inteligencia Artificial de la Unión Europea cree una cultura de concienciación similar a la que generó la Ley de Protección de Datos?
J.M.- Yo creo que la normativa de protección y la normativa de Inteligencia Artificial están inescindiblemente unidas, así que el efecto que van a producir es parecido. Los datos son la base de los sistemas de inteligencia artificial, por lo que ambas normativas están muy relacionadas. Los sistemas de IA respiran datos, por lo tanto, que una y otra estén unidas es lo más normal.
La implantación de la IA en recursos humanos
ORH.- ¿Cómo cree que la Inteligencia Artificial está influyendo en la gestión de Recursos Humanos y en la toma de decisiones relacionadas con el personal?
J.M.- Se está desarrollando ya en muchos terrenos dentro de Recursos Humanos. Un ejemplo son los procesos de selección: una empresa puede realizar una depuración previa de candidatos a través de sistemas de IA. Pero es necesario considerar que usando estas herramientas existen riesgos, como el reglamento de Inteligencia Artificial pone de manifiesto. Es posible que haya sesgos en los datos, es decir, que haya discriminaciones algorítmicas en la información que se usa para entrenar a la IA.
Por otro lado, hay que tener en cuenta que los algoritmos son la base sobre la que se asientan las plataformas profesionales. Las empresas cada vez utilizan más mecanismos de control, como puede ser el biométrico, el sistema de reconocimiento facial, huellas dactilares… Todos estos son ejemplos de prácticas que ya se están llevando a cabo, y hay muchos más ejemplos de sistemas de estas características que las empresas utilizan para el desarrollo de su actividad. Esta es la realidad actual que justifica la necesidad de esa regulación de IA que se ha producido.
ORH.- ¿Qué medidas propondría para garantizar la protección de los datos de los trabajadores en el contexto del uso de la Inteligencia Artificial en el ambiente laboral, y sobre todo en RRHH?
J.M.- Lo principal es cumplir con la normativa de protección de datos, que es muy compleja y amplia. Yo siempre digo que la IA son básicamente tres cosas: datos masivos, algoritmos y capacidad de computar todas esas informaciones. Los datos están en la base de todo, por eso es tan importante que las normativas de protección de datos se cumplan. También subrayo el papel que puede tener la negociación colectiva en esta materia, el Reglamento General de Protección de Datos Personales invita a esta negociación en varias ocasiones, y de hecho yo creo que es uno de los terrenos donde más desarrollo puede haber en los próximos años.
Por lo tanto, si tuviera que poner el foco en algo dentro de los datos y los RR. HH. mencionaría en primer lugar la negociación colectiva, y, en segundo lugar, la importancia de que en el ámbito de la normativa de protección de datos los interlocutores sociales dialoguen y establezcan reglas propias, nuevas garantías y nuevas formas de actuación sobre los datos.
La obligación de informar
ORH.- ¿Cree que los trabajadores han sido debidamente informados sobre cómo el uso de Inteligencia Artificial puede impactarles en el entorno laboral?
J.M.- Yo creo que los trabajadores de momento lo ven como lo vemos todos, como algo que están en la prensa, como si fuera un videojuego que se está jugando a parte del mundo y que tiene poco que ver con nosotros. Aunque creo que desde el año pasado con ChatGPT ya vimos que la IA ha influido mucho en nuestras vidas.
Desempleo mi actividad en el mundo académico y el mundo profesional de la abogacía, y en los dos se está viviendo con especial intensidad el desarrollo de sistemas de inteligencia artificial generativa. Es una cuestión que está en todas partes, los trabajadores no se si están informados, pero lo terminarán estando.
ORH.- ¿Considera que las empresas están preparadas, tanto a nivel de personal como de herramientas, para cumplir con las medidas de protección de la ley en el uso de Inteligencia Artificial en Recursos Humanos?
J.M.- Estamos en el mundo en el que estos sistemas ahora se están desarrollando por las grandes empresas, pero no es nada extraño que el propio reglamento de Inteligencia Artificial ponga también en el foco a las pequeñas y medianas empresas, porque el desarrollo que van a tener estos sistemas va a ir desescalando progresivamente. Estos sistemas ahora por sus costes están concentrados en empresas que se lo pueden permitir económicamente, pero con el tiempo se van a ir desescalando y va a ser lo normal que se utilicen en todas las empresas. El reglamento en ese sentido es bastante claro, y sostiene que cuando una empresa despliega un sistema de inteligencia artificial, tiene que informar a los trabajadores individualmente y a sus representantes. Si no lo hace el régimen de sanciones es demoledor.
En definitiva, se va a ir generando una cultura. Siempre que aparece una norma nueva sobre una realidad nueva, se va generando cultura sobre ella. La inteligencia artificial va a cambiar la forma de ver y de entender el desarrollo de la actividad laboral.
El desafío de los sesgos
ORH.- Los sesgos inherentes en los datos utilizados para entrenar modelos de IA pueden afectar a los derechos de los trabajadores, ¿Cómo pueden las empresas evaluar y mitigar estos sesgos?
J.M.- Este es un gran reto al que se van a enfrentar las empresas, porque además la normativa lo impone. Dentro de los considerandos del reglamento referidos a la materia laboral, este es uno de los pocos centrales. Se advierte que el entrenamiento de los sistemas de IA parte de los datos, y yo siempre digo que los sistemas de Inteligencia Artificial respiran datos. Si un ser humano respira en un ambiente contaminado, contrae enfermedades, y si un sistema de IA respira en un sistema donde los datos están sesgados, lógicamente va a sesgar el sistema.
Hay que tener claro que una Inteligencia Artificial no tiene emociones, y si las tienen no es porque las tengan los sistemas, sino porque nosotros les trasladamos esas emociones de una forma numérica, a través de esos datos y esas informaciones. Este es un ejemplo de cómo los humanos influimos en la IA. Por lo tanto, la lucha contra los sesgos debe ser uno de los objetivos centrales en todo este proceso. Conseguir que el aire que respire la IA sea un aire lo más puro posible. La Inteligencia Artificial son datos masivos, por lo que el uso y la depuración de estos va a ser clave. Si no se hace esto puede tener consecuencias importantes.
ORH.- En todo este contexto, ¿Qué importancia tiene un proyecto como IA+Igual?
J.M.- Es un proyecto importantísimo, está en la vanguardia de las formas de actuación frente a todas estas realidades. En el reglamento de inteligencia artificial se habla de la fiabilidad, de la tutela de los derechos fundamentales de las personas, de la incorporación de los valores del derecho comunitario en todos estos nuevos sistemas… Por ello es absolutamente fundamental establecer criterios de auditoría de los sistemas de IA, criterios que permitan evaluar a los algoritmos y ver cuál es su definición, así como conseguir que de alguna forma la inteligencia artificial sea “más igual”. Así, cobra importancia el trabajo de IA+Igual, que trata de establecer instrumentos técnicos y mecanismos que puedan crear una generación 1.0 de Inteligencia Artificial ética.