Desde el 2 de febrero de 2025 la alfabetización en materia de IA es una obligación exigible tanto a los proveedores como a los responsables del despliegue de estos sistemas, de tal manera que ambos deben asegurar que su personal y otras personas involucradas en su uso tengan un nivel suficiente de conocimientos en IA, adecuado a su formación, experiencia y al contexto de uso. Hacerlo en práctica supone diseñar un itinerario de aprendizaje. En la práctica, ello supone desplegar itinerarios formativos que habiliten en la comprensión de su funcionamiento, de sus riesgos y de los derechos que asisten a las personas sobre las que pueda tener impacto.
¿Qué es la alfabetización según el RIA?
El artículo 3.56 del Reglamento Europeo de IA define la alfabetización en IA como el conjunto de capacidades, conocimientos y comprensión que permiten a los actores involucrados cumplir con sus obligaciones legales y evaluar los efectos de la IA de manera crítica. Se presenta, pues, como un elemento esencial para garantizar un uso seguro, ético y transparente de los sistemas automatizados en el trabajo y ello necesariamente incluye a los trabajadores y a sus representantes legales. Ahora que el uso de los sistemas de IA está llegando a la negociación colectiva la alfabetización se convierte en el proceso previo que puede conducir un mayor entendimiento entre las partes como consecuencia de compartir un mismo conocimiento y un mismo lenguaje sobre una cuestión, la tecnología de IA, sobre la que pende la obligación de la explicabilidad.
La alfabetización en IA es, pues, no solo una competencia técnica, sino una herramienta de empoderamiento de los trabajadores y de sus representantes legales que ha de permitir que esta tecnología sirva a las personas, respete los derechos y fortalezca el diálogo social. Y el nexo para lograrlo es la formación. Los itinerarios formativos deben habilitar a la parte social para comprender y aplicar eficazmente el modelo de transparencia algorítmica y para ello han de centrarse en la traducción de la complejidad técnica a un lenguaje claro y útil para el ámbito laboral, con un fuerte enfoque pedagógico y perspectiva sindical.
El objetivo principal de esta formación es capacitar a los sindicatos para participar activamente en la revisión y supervisión del modelo de IA, y para conectar los elementos técnicos del algoritmo con su impacto directo en los derechos de los trabajadores.
En concreto, y cuando se trata de trabajarla con la representación legal de los trabajadores, la formación que se despliegue para conseguirla ha de habilitarles para:
- Conocer los tipos de sistemas de IA que pueden aplicarse en entornos laborales (evaluación, selección, productividad, etc.).
- Comprender los riesgos éticos y jurídicos asociados (discriminación, sesgo, vigilancia, privacidad).
- Saber interpretar fichas de transparencia algorítmica y evaluaciones de impacto.
- Poder informar, asesorar y representar a los trabajadores en los procesos de implantación o revisión de sistemas de IA.
Propuesta de itinerario formativo
- Objetivos de la formación:
- Desarrollar competencias digitales y algorítmicas básicas.
- Aprender a evaluar los efectos laborales y sociales de los sistemas de IA.
- Capacitar para dialogar técnicamente con la empresa y proveedores de IA.
- Conocer los procedimientos legales y de reclamación ante decisiones automatizadas.
- Fomentar una cultura sindical de IA responsable y centrada en los derechos humanos.
- Contenidos mínimos:
- Marco normativo: El primer entendimiento ha de ser el del marco normativo aplicable, y por ello la capacitación debe conectar directamente el modelo de transparencia con él:
- Derecho de información y consulta previa.
- RGPD y decisiones automatizadas.
- Derecho a explicación comprensible.
- Marco normativo: El primer entendimiento ha de ser el del marco normativo aplicable, y por ello la capacitación debe conectar directamente el modelo de transparencia con él:
- Principios de IA responsable: Se han de aclarar los conceptos clave que permitan a posteriori identificar cuándo un sistema cumple principios éticos y cuándo no:
- Transparencia.
- Equidad.
- Explicabilidad.
- Supervisión humana.
- Evaluación de impacto algorítmico: Se ha de explicar cómo se realiza, qué riesgos analiza y cómo interpretarla. Capacidad de participar en revisiones sindicales.
- Herramientas de interpretación (LIME, SHAP, paneles de equidad). Este es un apartado crítico, en la medida en que ha de hacer entender las explicaciones técnicas y traducirlas a lenguaje claro para comprender cómo “razona” el algoritmo hasta llegar a las decisiones automatizadas.
- Protección de datos y privacidad: Ha de habilitar en el conocimiento de las bases del uso legítimo de datos laborales, la anonimización, los derechos de acceso y rectificación con el fin de saber detectar usos indebidos o excesivos.
- Diálogo social y negociación colectiva: También puede incluir sugerencias sobre cómo incorporar cláusulas sobre IA en convenios y comisiones mixtas, proponer y negociar medidas de control ético y participación de los trabajadores.
Enfoque pedagógico
- Lenguaje claro y no técnico: Se debe evitar el uso de tecnicismos complejos (como «regresión logística» o «regularización L2») y usar expresiones cotidianas (por ejemplo: «el sistema analiza patrones en los datos históricos de desempeño»).
- Sesiones informativas conjuntas en las que participen la dirección, Recursos Humanos, técnicos y representantes sindicales.
- Resúmenes ejecutivos visuales como infografías o fichas de una página (como las fichas de control de productividad, selección de personal o asignación de turnos) para sintetizar la información de manera clara y accesible.
- Guías de preguntas frecuentes (FAQ) con respuesta a dudas comunes sobre el funcionamiento y los derechos.
- Contextualización laboral: Es fundamental que la formación relacione cada elemento técnico del modelo con su impacto directo en el trabajo cotidiano (evaluación, turnos, productividad, ascensos, sanciones o despidos).
- Participación activa: La formación debe involucrar a los representantes sindicales en la revisión del modelo y en la supervisión continua del sistema.