El Proyecto IA+Igual llega a su fin y su primer impacto deberían ser sus conclusiones

Maite Sáenz27 junio 202512min
gato-explorador de IA
Hoy finaliza el plazo de ejecución del proyecto IA+Igual y empieza el de su impacto. Ese es el compromiso de todo proyecto financiado con fondos públicos, el de demostrar que la inversión que les ha sido otorgada no es el fin sino el recurso inicial para realizar una contribución tangible a la sociedad y sostenida en el tiempo. La reflexión sobre los resultados obtenidos (qué hemos hecho y qué hemos conseguido con ello) ha de ser el punto de partida de cómo vamos a seguir a partir de ahora.

 

Lo que hemos hecho ha sido andar un camino apenas transitado. Hemos cogido una realidad verdaderamente disruptiva y nos hemos arriesgado a explorarla. Seguro que me entendéis mejor si os digo que personalmente ha sido como diseñar mi propio espacio de aprendizaje en torno a la IA. No partía de una hoja en blanco sino embarullada, llena de información incomprensible para mí. He tenido que reescribir sobre ella aprendiendo a entenderla. ¿Cómo? Desnudándola. Sesgo a sesgo, prejuicio a prejuicio, paradigma a paradigma. La he dejado sin halo, sin ese áurea mística que utiliza para ser, en sí misma, excluyente. Ahora me toca lo más difícil, utilizar la IA sin que me abduzca, pero al menos ya soy consciente de que puede hacerlo y de cómo puedo evitarlo.

¿Y cómo lo he conseguido? Poniéndome un reto: hacer el Campus IA+Igual. ¿Por dónde he empezado? Deshaciendo nudos para entender conceptos. ¿Qué he hecho para no liarme? Dedicarme a aprender. La receta de 1 hora al día de Gates se me ha quedado corta por pliego oficial y gusto personal, porque aprender es como el comer, todo es empezar. Ahora que he cogido carrerilla es cuando empieza lo bueno, porque el Campus va a continuar. Con otro nombre, con nueva propuesta formativa y una nueva experiencia de aprendizaje.

 

Conclusiones de un viaje personal que quiere aportar en lo profesional

Además de desenmascarar a la IA, el proyecto me ha dado la oportunidad de conocer su penetración real en la gestión laboral. El objetivo era ambicioso: analizar cómo se está trasladando esta tecnología a los procesos de gestión de RR.HH. en las empresas, estudiando en un grupo pequeño de algoritmos y en los procesos de toma de decisiones asociados la madre de todos sus riesgos: los sesgos, tanto los algorítmicos como los humanos, y cómo ambos son vasos comunicantes que necesitan de conciencia y ética personal y corporativa, además de cultura de cumplimiento normativo en todos. Hemos puesto el foco en la equidad, porque correlaciona con la justicia, antes que en la igualdad, porque se diluye en el ideario actual de la discriminación. Y hemos corroborado que la toma de decisiones es la verdadera dificultad de trabajar con IA, porque no puede comprometer el derecho fundamental de acceso al empleo y desarrollo en él si se basa en datos que segmenten segregando o excluyendo la diversidad, o si, directamente, se interpretan mal.

Aquí van mis conclusiones a mi modo y manera, el que sabéis que me gusta, a vista de pájaro y de zoom:

1. Está todo por hacer. Estamos ante una realidad tremendamente inmadura sobre la que ejercen una presión desmesurada, por una parte, los intereses económicos de las empresas tecnológicas por incrementar las ventas de aplicaciones y los servicios de consultoría asociados, y por otro, la narrativa de los medios de comunicación, que convierten en normalidad la excepcionalidad de los titulares. La opinión que crean no refleja ni el grado real de adopción ni la escasa preparación que empresas y trabajadores tienen para afrontar el reto de la IA.

Ni por preparación de las empresas, ni por preparación de los empleados, ni por preparación de los sindicatos, ni por preparación del liderazgo, ni por preparación las instituciones públicas, ni por claridad de la legislación, etc., “España lidera la adopción de la IA” ni “RR.HH. lidera su adopción en las empresas”. ¿Y para este viaje hacían falta estas alforjas, subvención mediante? Sí, porque desenmascarar la IA no es sólo reconocer que no la entendemos sino también desenmascarar los mensajes interesados para que nos sumemos a ella (plataformas, modelos y certificaciones incluidas) sin tener los deberes hechos (me refiero siempre al ámbito de RR.HH.). Y para eso queda tanto como el recorrido que tiene en la negociación colectiva y en una legislación “movediza” o directamente “embarronada”. ¿Significa esto que tenemos tiempo de sobra para decidirnos a actuar? No, significa que hemos ponernos manos a la obra ya.

2. Empezando por la alfabetización en su sentido más amplio y también más concreto. La alfabetización, en términos de entendimiento de la IA pero también de upskilling y reskilling para trabajar con ella, todavía tiene un enorme recorrido en todos los agentes implicados, tantos en los que toman decisiones (directivos, intermediadores de empleo, sindicatos, científicos de datos) como en los que son objeto de las mismas, esto es, las personas trabajadoras. Y ello en múltiples áreas: formación para gestionar con herramientas de IA (cumplimiento técnico, ético y normativo), formación para entender (sindicatos y trabajadores, también los que se van a incorporar al mercado de trabajo) y formación para manejar herramientas de IA (alfabetización digital en nuevos puestos de trabajo basados en IA).

3. Y siguiendo por aflorar una mayor conciencia del reto que la IA supone para los colectivos en riesgo de exclusión social, que están desaparecidos tanto en la calidad de los datos como en la toma de decisiones a partir de sistemas de IA. Las dos sesiones convocadas para profundizar en ello apenas alcanzaron, en el caso de los webinars, los 218 inscritos (5,54% del total de 8.000 personas que siguieron el ciclo de 13 sesiones). La idea de que estos colectivos son agujeros negros en los datos dificulta el hecho de entender que el riesgo es común a todo tipo de población porque está en el etiquetado de los datos. El proyecto ha constatado que la protección de datos de carácter personal es la primera garantía de equidad de estos colectivos cuando se trata de favorecer su integración laboral. Esa protección es y debe ser inviolable precisamente en aras de su inclusión, pero ha de ir acompañada de otras actuaciones estructurales.

Por ejemplo, para evitar que no sean colectivos subrepresentados en los datos el reto está no en identificar o etiquetar en ellos su condición en términos de su diversidad, sino en el de sus conocimientos y habilidades para el desempeño profesional (el famoso skills based). Ello implica, además, que dicho sistema de clasificación de competencias y experiencias laborales sea universal, esto es, para todas las personas independientemente de su condición, y que incluya las habilidades derivadas de la formación no reglada. Ello hará posible que aflore la idoneidad de cada perfil impidiendo que sus circunstancias personales sesguen la toma de decisiones. Dicho así parece fácil, pero la complejidad es soberana.

No obstante, esto no bastará para garantizar la inserción, ya que habrá otras cuestiones ajenas al algoritmo que podrán condicionar, como ya lo hacen ahora, esa inclusión efectiva. Pongamos el ejemplo de una empresa que, tras una primera criba en un proceso de reclutamiento con datos ciegos, selecciona un grupo de n candidatos, de los cuales uno de ellos pertenece a un colectivo con necesidades especiales de inclusión. Ante una discapacidad evidente (en una entrevista presencial o una videoconferencia), ¿qué mecanismos de no discriminación se pueden aplicar? ¿Tiene la empresa obligación de adaptar el puesto de trabajo? ¿Dispone de medios económicos para hacerlo? Y si se trata de una mujer víctima de violencia de género, ¿tiene cualquier tipo de organización los medios para activar protocolos seguros para ella como empleada? ¿Puede garantizar la protección de su condición? ¿Y en los datos? El reto de la IA para la diversidad e inclusión es, sobre todo, un reto de toma de decisiones y también de procesos organizativos y normativos adaptados.

Por último, la conclusión final: ¿?

No la hay porque es vuestra. El título tiene toda la intención porque digo que «el Proyecto IA+Igual llega a su fin y su primer impacto deberían ser sus conclusiones». Sois vosotros quienes tenéis que valorarlas. Esto es otra de las cosas que he aprendido en estos dos años, que el modo «justificación de subvención con dinero público a partir de indicadores de impacto» no es otra cosa que someterse al escrutinio público.

 

ORH es el Paquete 4 del proyecto IA+Igual, el destinado a creación de una plataforma de formación abierta, pero también el que ha convencido a las empresas que generosamente se han prestado a que analizáramos sus modelos y sus gobernanzas, el que ha sumado profesionales con el conocimiento que los promotores no teníamos al consejo asesor y a la red de embajadores, y el que ha contribuido a comunicar el proyecto y sus iniciativas haciéndoos partícipes a todos vosotros de él. Sois muchos, la comunidad ORH crece día a día y, lo más importante, sois «aprendedores» por vocación. Gracias colectivas e individuales, que no me quiero dejar a nadie fuera, y hasta mañana, que el viaje hacia la IA ahora lo copilotais vosotros.

 

Nota sobre la imagen: La he creado con IA pero para hablar de mí, no de robots, porque así me veo en el viaje de exploración que ha sido el proyecto. ¡Soy gata por madrileña y por curiosa! 😇


Observatorio de Recursos Humanos

ORH | Observatorio de Recursos Humanos

Desde 2006 trabajamos para ofrecer contenidos e información de valor para el profesional de la gestión de RRHH, con el convencimiento de que el conocimiento, en sus vertientes de creatividad, innovación y aprendizaje continuo, es el principal valor de una dirección eficaz.



Contacta con nosotros


Nuestros Otros Proyectos


Suscríbete al boletín

* campos obligatorios
Acepto las condiciones de uso y la política de privacidad


Síguenos en Redes Sociales