Los sindicatos se preparan para la negociación colectiva de la IA
Patronal y sindicatos acordaron otorgar a la negociación colectiva un papel fundamental como garante del uso adecuado de la Inteligencia Artificial (IA) en el V Acuerdo para el Empleo y la Negociación Colectiva (AENC) firmado el pasado mes de mayo, y los sindicatos comienzan ahora a articular su rol y a establecer su marco de actuación para introducir la regulación de la IA en todos los acuerdos colectivos. Así, UGT acaba de publicar la guía “Recomendaciones para la negociación colectiva de la IA”, un documento que, desde el prisma de la empresa, resulta de interés para conocer el enfoque de las solicitudes que van a recibir desde la interlocución sindical en el proceso.
El pasado mes de mayo de 2023, CEOE Cepyme, UGT y CCOO firmaban el V Acuerdo para el Empleo y la Negociación Colectiva (AENC). Dicho acuerdo dedica un apartado, dentro del capítulo XVI, a la “Inteligencia Artificial (IA) y garantía del principio de control humano y derecho a la información sobre los algoritmos” donde:
- se reconoce que “la IA de manera progresiva tendrá un impacto significativo en el mundo laboral y, si no se hace un uso correcto y transparente, podría llevar a adoptar decisiones sesgadas o discriminatorias relativas a las relaciones laborales;
- se determina, entre otros, que “la negociación colectiva debe desempeñar un papel fundamental estableciendo criterios que garanticen un uso adecuado de la IA y sobre el desarrollo del deber de información periódica a la representación de los trabajadores”;
- y se establece que “las empresas facilitarán a los representantes legales de las personas trabajadoras información transparente y entendible sobre los procesos que se basen en ella en los procedimientos de recursos humanos (contratación, evaluación, promoción y despido) y garantizarán que no existen prejuicios ni discriminaciones”.
Ahora, el sindicado UGT ha publicado una guía que recoge “Recomendaciones para la negociación colectiva de la IA” y que ofrece pistas a las empresas del rol que va a adoptar el interlocutor sindical en el proceso y del tipo de información que les va a solicitar.
Presencia de la IA en las relaciones laborales
El documento elaborado por el sindicado arranca resaltando la presencia de la IA en las relaciones laborales: “Llamativamente para el caso de España, la IA está mucho más presente en las relaciones laborales de lo que se podía pensar”. Y para demostrarlo, cita datos de fuentes como el INE: “Un 37% de las empresas con IA en sus procesos productivos la emplea para ‘la automatización de flujos de trabajo o ayuda en la toma de decisiones’, una cifra que aumenta hasta el 56% en caso de las grandes corporaciones, siendo además el modo de IA más usado de todos los existentes”. O de Eurofound, “1 de cada 3 trabajadores en España están sujetos a al menos una forma de gestión algorítmica”, “a un 19% de las personas trabajadoras en España, un algoritmo le asigna los turnos; a un 16% le asigna las tareas; a un 11% los algoritmos nos miden el desempeño, creando rankings; y a un 10%, los algoritmos les pueden ‘cancelar la carga de trabajo’ o, directamente, ‘cancelar su trabajo’ en función de los rankings anteriores”.
A tenor de estos datos, UGT señala: “Esta secuencia de datos oficiales -nunca desmentidos- nos confirma que el grado de penetración de la algoritmia/IA en nuestros centros de trabajo es muy elevado. Se trata de una tecnología que está manejando nuestras relaciones laborales sin ningún control ni vigilancia, con unas consecuencias para las personas trabajadoras que, sin ningún género de dudas, nos impelen a introducir la regulación de la IA en todos los acuerdos colectivos (Convenios, Planes de Igualdad e incluso ERE o ERTE)”.
El sindicado apela a la necesidad de la vigilancia sindical ante una herramienta a la que atribuye aleatoriedad y opacidad: “Sus decisiones se soportan en la aleatoriedad e imprevisibilidad, basada en probabilidades, que resultan del todo incompatibles con el cumplimiento de derechos fundamentales. A esta falta de precisión se le suma la opacidad en su funcionamiento creando unos modelos de ‘cajas negras inexplicables’ en donde nadie sabe explicar por qué se toma una u otra decisión”. Y ante la que reaccionan: “Si una IA no debería contratarte, tampoco debería decidir sobre cómo y cuándo promocionar, asignar turnos de trabajo y tareas, determinar retribuciones y un largo etc. que se expande hasta la posibilidad de que una IA tenga la facultad de despedir”.
¿Cómo va a solicitar el sindicato información sobre IA a la empresa?
Con vistas a ponerse manos a la obra con esa vigilancia, la guía de UGT establece el formato para solicitar la información sobre algoritmos/IA a los empleadores y para ello propone un decálogo de preguntas:
2. ¿Qué decisiones están tomando? ¿En qué aspectos/áreas (decisiones de la actividad laboral está actuando? ¿Se emplean algoritmos o IA para la vigilancia de la actividad laboral?
3. ¿Qué tecnología emplea? ¿En qué variables, parámetros, reglas e instrucciones basa su funcionamiento?
4. ¿Captura o capturan datos de carácter personal o no personal de las personas trabajadoras? ¿Su tratamiento cumple con el RGPD y la LOPD en términos de ser recogidos con propósitos determinados, explícitos y legítimos? ¿Los datos recogidos son adecuados, pertinentes y limitados a lo necesario en relación con los fines para los que son tratados (minimización de datos) y se restringen al tiempo de trabajo efectivo? ¿Dónde se almacenan estos datos? ¿Se entregan o ceden estos datos a terceras partes?
5. ¿Están funcionando bien estas herramientas de trabajo? Por ejemplo, ¿Se ha evaluado su impacto de forma previa a su puesta en marcha? ¿Se ha constatado un funcionamiento libre de sesgos mediante alguna auditoria externa o interna? Si son algoritmos/IA fruto de un entrenamiento, ¿se ha empleado un set de datos de entrenamiento equilibrado en términos de género edad, diversidad, etc.?
6. ¿Hay una actuación humana al final de cada decisión automatizada que complemente, modifique, acepte o pueda revocar dicha decisión? ¿Cuál es el porcentaje de decisiones revocadas por la persona (s) que están al final de cada decisión automatizada?
7. ¿Quién asume la responsabilidad de las decisiones automatizadas que toman los algoritmos/IA?
8. ¿Cuál es el cauce para que una persona trabajadora pueda recibir una explicación sobre una decisión tomada por un algoritmo/IA?
9. ¿Cuál es el cauce para que una persona trabajadora pueda oponerse a una decisión tomada por un algoritmo/IA?
10. ¿Cuál es el aumento de la productividad registrado como consecuencia de la implantación de estos algoritmos/IA?
El sindicado recalca que estas preguntas pueden adaptarse a la especificidad de cada empresa, sector o actividad y también que pueden ser aplicables a otros procesos de la negociación colectiva tales como los Planes de Igualdad o ERE/ERTE.
¿Qué contenido espera obtener?
Ante la pregunta de cómo deben informarnos del funcionamiento de los algoritmos, la guía detalla que las explicaciones sobre el funcionamiento de los algoritmos/IA laborales “deberán ‘bajar’ al nivel de interlocución del solicitante de la explicación”. A este respecto incide en que la explicabilidad refiere tanto a la entrada, salida y funcionamiento de cada componente algorítmico como a la forma en que contribuye a los resultados de los sistemas.
Ante todo, remarca que “la explicabilidad está estrechamente relacionada con la transparencia” y advierte que “no caben excusas sobre la ‘dificultad’ que entrañan estas tecnologías y mucho menos responder con fórmulas matemáticas incomprensibles para la mayoría de la población” y que “si se quiere demostrar transparencia, existen cauces para hacer entendibles el funcionamiento de la IA”.
Como contenido mínimo obligatorio que se espera recibir, UGT detalla que “en lugar de ofrecer una compleja explicación matemática sobre cómo funcionan los algoritmos o el aprendizaje automático, el responsable del tratamiento debe considerar la utilización de formas claras y exhaustivas de ofrecer información al interesado” y pone ejemplos: “las categorías de datos que se han utilizado o se utilizarán en la elaboración de perfil o el proceso de toma de decisiones; por qué estas categorías se consideran pertinentes; cómo se elaboran los perfiles utilizados en el proceso de decisiones automatizadas, incluidas las estadísticas utilizada en el análisis; por qué este perfil es pertinente para el proceso de decisiones automatizados; y cómo se utiliza para una decisión relativa al interesado”.
Y en lo relativo a la evaluación de impacto previo (es decir, si la empresa, antes de poner en marcha algoritmos/IA laborales ha valorado los riesgos “para los derechos y libertades de las personas físicas” que entrañan), aspecto que también califica de “complejo”, el sindicado remite al artículo 35 del RGPD que estipula los mínimos que deberá comprender esta evaluación:
- una descripción sistemática de las operaciones de tratamiento previstos y de los fines del tratamiento, inclusive, cuando proceda, el interés legítimo perseguido por el responsable del tratamiento;
- una evaluación de la necesidad y la proporcionalidad de las operaciones de tratamiento con respecto a su finalidad;
- una evaluación de los riegos para los derechos y libertades de los interesados;
- y las medidas previstas para afrontar los riesgos, incluidas garantías, medidas de seguridad y mecanismos que garanticen la protección de datos personales, y a demostrar la conformidad con el presente Reglamento, teniendo en cuenta los derechos e intereses legítimos de los interesados y de otras personas afectadas.
Buenas prácticas de negociación colectiva
La guía concluye ensalzando el papel de la negociación colectiva como impulsor del impacto positivo de la IA a partir de datos de la OCDE y citando que “las propias empresas consultadas confirman que, gracias a la interlocución sindical, el impacto de la IA laboral ha aumentado su provecho en hasta 15 puntos en aspectos como productividad, gestión, salud y seguridad o satisfacción”.
Y remite una serie de convenios colectivos donde se han desarrollado cláusulas sobre algoritmos e IA que afectan a diferentes casuísticas a modo de ejemplos de buenas prácticas.