RR.HH. no es líder del cambio asociado a la IA, es parte de él

“De aquí a tres años haré lo mismo en menos tiempo, dejaré de hacer cosas que hago ahora, y podré hacer tareas que antes no era capaz de hacer, pero no correré riesgo de perder mi trabajo”. La edición 2025 del estudio “Los profesionales de RR.HH ante los retos de la IA”, elaborada por Future for Work Institute, dibuja un escenario de inusitado optimismo en la comunidad de la Función RH sobre cómo esta tecnología va afectar a su rol futuro. La confianza es generalizada en todos los niveles de responsabilidad consultados y tanto en el ámbito de las organizaciones privadas como públicas. La pregunta es si ello brinda el punto de partida adecuado para desempeñar el papel y aportar el valor que se le reclama a RR.HH. desde las organizaciones.
Los resultados del informe, que han sido compartidos en una jornada celebrada en la Universidad de Navarra de Madrid por iniciativa conjunta de FFW e IA+Igual, reflejan un cierto efecto “group thinking” que amenaza la claridad y decisión con la que RR.HH. ha de introducir la inteligencia artificial en sus procesos de trabajo. El discurso que se ha instalado dista mucho de la realidad y lejos de ser el líder de la transformación, RR.HH. es parte de ella. Los casos de uso apenas tienen penetración en las empresas y la aplicación mayoritaria que se hace de la IA en esta área es en su versión generativa, para buscar información o redactar textos.
Además, “a pesar de que la IA tiene un efecto igualador de la productividad humana, muy pocos vaticinan una mayor complejidad en su trabajo futuro como consecuencia de utilizarla y apenas un 10% se siente amenazado por ella. Si realmente las tareas menos complejas son las que más se van a automatizar es lógico pensar que los trabajos se conviertan en más complejos, pero los profesionales RH no lo ven así”, ha explicado Santiago García, cofundador de FFW. Un dato cuando menos curioso, en la medida en que el mensaje instalado en la sociedad y asumido por las empresas es el de la visión apocalíptica del futuro de numerosos roles profesionales.
Sobre este ítem Santiago ha destacado que, si bien en la primera edición del sondeo realizada en 2023 (último trimestre) se apreciaban diferencias en función de la intensidad de uso (es decir, cuanto más uso hacían de ella más cosas veían que podían cambiar) en la actual (último trimestre de 2024) la visión de futuro se homogeneiza, tanto en los grados de uso como en los roles y en el sector público/privado. La causa, a su juicio, puede estar en las narrativas dominantes en el mercado que están influyendo en ella o en el tipo de herramientas que se están utilizando y para qué.
En este sentido, ChatGPT es la más utilizada seguida de Copilot, y ambas se aplican mayoritariamente a dos usos concretos:
- búsqueda de información e investigación,
- redacción y asistencia en la escritura.
Fuente: “Los profesionales de RR.HH ante los retos de la IA». Future for Work, 2025.
“Si estas son las herramientas y los usos, encaja que el futuro no se visualice de manera amenazadora, sobre todo teniendo en cuenta su grado de desarrollo actual”, afirmó Santiago García. Y ello es así porque en dicha percepción está ausente el desarrollo exponencial que están experimentando las aplicaciones, el aprendizaje que requieren y el impacto que van a tener incluso en el corto plazo.
Sobre el cambio que ya se ha producido, la percepción general es que es limitado y poco significativo (75%), aunque más interesante es el efecto “onda expansiva” que está teniendo la IA transformando ya incluso los trabajos de personas que no son usuarias tradicionales de ella.
En la comparativa del cambio que ha sucedido con el que ha de llegar, lo que más avanza es la eficiencia de las tareas (ahorro de tiempo) y lo que tiene más camino por recorrer son tres percepciones:
- dejaré de hacer tareas que hago ahora,
- tendré que hacer nuevas tareas que ahora no hago,
- podré hacer tareas que antes no era capaz de hacer.
Fuente: “Los profesionales de RR.HH ante los retos de la IA». Future for Work, 2025.
BYOIA también en RR.HH. ¿Dónde queda la cultura de seguridad?
Y finalmente, el último hallazgo de 2024 es el BYOIA (bring your own IA). Uno de cada dos profesionales de RR.HH. utilizan herramientas de IA que no son corporativas y lo hacen con el conocimiento de sus jefes. Además de las posibles brechas de los riesgos de seguridad y de los diferentes niveles de aprendizaje a los que conduce la autoformación, este es un fenómeno que se repite tanto en directivos como en roles inferiores y en profesionales jóvenes como seniors. En el sector público el porcentaje es aún mayor por razones obvias derivadas del menor nivel de digitalización.
Lo cierto es que no son pocas las empresas privadas que tienen prohibido el uso de la IA generativa o que no comunican de manera clara qué no se puede hacer y los riesgos que supone un uso no adecuado de ella. Pero ante esa realidad se impone otra: la de la tecnología personal como sustituta de la corporativa cuando ésta no cubre las necesidades o expectativas del empleado. Lo llamativo es que el departamento que vehicula los procesos internos para facilitar una cultura interna sea el primero en transgredir las normas, ya que casi el 50% de los consultados admite utilizar herramientas de IA no proporcioandas por su empresa y que su jefe es conocedor de ello. Ante la ausencia de un posicionamiento activo de la empresa, la realidad se impone y no sólo la social sino también la de negocio, ya que nada frena que queramos aplicar las facilidades que la IA aporta a nuestra vida personal a nuestra vida profesional.
Fuente: “Los profesionales de RR.HH ante los retos de la IA». Future for Work, 2025.
Estela Martín, Dircom de Sincro; Manuel Zaera, COO y Head of Human Capital en Zertia; Guillermo Lorbada, Head of New Ways of Working en Repsol; Gloria Sánchez de Saz, coordinadora del laboratorio de innovación de Inserta Empleo, y el propio Santiago García, socio fundador de FFW, moderados por Maite Sáenz, directora de ORH y cofundadora del Proyecto IA+Igual, han dado hilo a una conversación que ha retratado la dimensión de la reflexión estratégica que han de hacer ya las empresas:
- Sobre el rol de RR.HH.. También corre riesgo en determinadas posiciones, especialmente las que son más rutinarias y tienen un componente menos social porque:
- La IA va, sobre todo, de automatización y ello traerá consigo organizaciones más pequeñas, también en los roles corporativos.
- También va de adquirir nuevas habilidades y competencias, que para esta función tienen se concretan sobre todo en un conocimiento mucho mayor del lenguaje del dato.
- Sobre cómo transita la función en su propio proceso de adaptación. La reflexión estratégica ha de ser corporativa pero también personal porque:
- La visión sistémica ha de acompañar dicha reflexión para no sólo contemplar qué se ha de aprender (tanto el yo RR.HH. como el nosotros de la organización) sino el impacto que la IA va a tener en función de en qué procesos se quiera aplicar y cómo abordarlo.
- El aprendizaje a lo largo de la vida también ha de tener mucho de autoaprendizaje para quienes gestionan personas.
- Sobre cómo aborda la cultura del dato. Utilizar la IA de manera ética y responsable necesita de una cultura del dato fuerte y consistente que le dé transversalidad a esa ética:
- En el etiquetado de los datos, un proceso complejo que no sólo es cuestión de «finura» técnica sino de sensibilidad humana ante los sesgos, la diversidad, la equidad y el respeto por la persona «etiquetada».
- En el equipo multidisciplinar que los departamentos de TI, RR.HH. y Cumplimiento han de conformar para definir el modelo de gobernanza de los datos y de la IA, un objetivo para el cual necesitan entender sus diferentes lenguajes y crear uno común que favorezca, además, la explicabilidad a toda la plantilla.
- En el establecimiento de unos modelos e indicadores objetivos que midan qué aporta el uso de la IA a la organización en términos no sólo de productividad sino también de bienestar para las personas, con una toma de decisiones ante los mismos consecuente centrada en la doble sostenibilidad: del negocio y de las personas.
- En la creación de una cultura corporativa fuerte en términos de responsabilidad de uso y toma de decisiones basada también en unas competencias transversales fuertes en términos de curiosidad y pensamiento crítico.
- Sobre cómo se incorpora la perspectiva normativa a la reflexión estratégica. A pesar de que tanto la normativa europea como nacional presenta un marco de obligado cumplimiento en materias muy específicas, todavía no hay una convergencia entre las obligaciones legales y la cultura de uso de la IA y eso eleva los riesgos y compromete la reputación de las organizaciones porque:
- La velocidad con la que se está introduciendo la IA en los convenios colectivos refleja la escasa prioridad que tiene para determinados sectores que, como el de los call centers y a pesar de acabar de ser acordado, no incluye ninguna apartado específico.
- Empiezan a verse las primeras casuísticas que comprometen la reputación de las organizaciones, por ejemplo, relacionadas con los planes de igualdad y cómo se cumplen las obligaciones asociadas en la redacción de las ofertas de empleo, ahora más comprometida con el uso de la IAGen, o vinculadas al uso que hacen determinados departamentos en materia de derechos de autor.