En plena transformación digital, la inteligencia artificial se ha convertido en una herramienta poderosa y presente en todos los ámbitos, incluida la gestión de personas. Sin embargo, los modelos algorítmicos que soportan la IA no percibe los claroscuros que conforman la complejidad humana: somos diversos, actuamos de diferente forma, nos dirigen las emociones y somos impredecibles en la toma de decisiones. Reconocer estas particularidades es clave para conseguir que su uso en el ámbito laboral sea eficiente, productivo y sobre todo, ético.
En este contexto, surge una reflexión urgente: debemos esforzarnos en ser críticos y no vasallos, asegurando que la IA esté a nuestro servicio y no al revés. Automatizar decisiones puede resultar cómodo, pero eximirnos de nuestra responsabilidad humana en los procesos que afectan a personas reales tiene muchos riesgos. Además, no todo lo tecnológicamente posible es éticamente aceptable, por lo que trazar límites claros y responsables al uso de la IA se convierte en un reto necesario para las organizaciones.
Hablamos sobre estas cuestiones y sobre los desafíos éticos que plantea la IA en el ámbito laboral, con Fátima Álvarez, filósofa y experta en pensamiento crítico y ética, y embajadora de IA+Igual. Álvarez nos ofrece una mirada profunda sobre cómo la inteligencia artificial debe integrarse en las empresas sin perder de vista a las personas.

ORH.- Como filósofa y experta en pensamiento crítico y ética, ¿cómo cree que la inteligencia artificial está redefiniendo el empleo y transformando la selección y gestión de talento en las empresas?
Fátima Álvarez López.- Las empresas se esfuerzan por incorporar las herramientas adecuadas que deberían estar moduladas a sus necesidades y modelo de negocio. Está pendiente la otra parte del binomio: que impulsen el desarrollo de las capacidades genuinamente humanas de su personal para asegurar una relación exitosa con la IA. El pensamiento crítico les permitirá marcar la diferencia y la orientación ética asegurar que las personas están realmente en el centro.
Entre lo humano y la IA
ORH.- ¿Podría una máquina ser un buen líder o la gestión de personas siempre requerirá la intervención humana?
F. A. L.- Ya hemos visto casos de un robot que se presenta a las elecciones o de otro en un consejo de administración. De primeras nos da la impresión de que, al tratarse de máquinas, con su cúmulo de información y datos, serán más objetivas y justas. Sin embargo, no es así; adolecen de sesgos a lo largo de toda su trazabilidad. No hay duda de que puede ser un apoyo para el liderazgo, pero las decisiones siempre las han de tomar las personas. De ahí la importancia de contar con profesionales bien formados, no solo en la parte operativa de la IA, es decir, en el manejo de una herramienta, sino también educadas en lo que la inteligencia artificial supone e implica.
ORH.- La IA permite automatizar procesos de RRHH. ¿Qué riesgos ve en la pérdida del componente humano en la toma de decisiones?
F. A. L.- La IA uniforma, es “un café para todos”. Es racional, pero no razonable. ¿Qué quiero decir con esto? Que puede ser lógica, pero no es flexible; en el sentido de que no tiene en cuenta los casos particulares de las personas de carne y hueso. Y en los procesos de RRHH hay que considerar las diferencias. No somos iguales, no funcionamos de la misma manera, ni estamos en los mismos momentos vitales, ni nuestras circunstancias son exactamente las mismas… Reconocer estas particularidades determina la calidad de las relaciones humanas y su repercusión en el trabajo. La IA no percibe los claroscuros.
ORH.- ¿Cómo pueden las empresas garantizar que el uso de IA en RRHH sea ético y justo para todos los candidatos y empleados?
F. A. L.- Formando a las personas y recurriendo a profesionales. No se puede garantizar que se cumple lo que no se conoce bien. En las empresas se habla de ética, pero hasta qué punto hay conocimiento de qué es la ética en general; qué es la ética de la IA; qué son, por ejemplo, los sesgos y cómo detectarlos; cómo se relacionan nuestros valores con los criterios por los que tomamos decisiones… Hasta ahora se actuó sin recurrir a profesionales del tema. Y así se fue tirando. Ahora la situación se ha vuelto mucho más compleja y ya no podrá ser abordada a un nivel tan elemental. Las empresas necesitan tratar estas cuestiones con mayor profesionalidad.
ORH.- ¿Cómo podemos asegurarnos de que la IA en RRHH no deshumanice el trato a los empleados?
F. A. L.- Lo primero es esforzándonos en ser críticos y no vasallos, es decir, que la IA esté a nuestro servicio y no deleguemos ciegamente en ella. Porque es muy fácil y cómodo eximirnos de nuestra responsabilidad permitiendo que las decisiones sean automatizadas. Sabemos que esa tentación está ahí y por eso es tan importante un proyecto como IA+Igual que nos recuerda el esfuerzo que debemos hacer las personas trabajando para personas.
ORH.- ¿Qué valores deberían guiar la implementación de IA en la gestión de talento?
F. A. L.- Hay un mínimo de valores que deberían ser compartidos, que forman parte de la ética cívica y que deberían estar presentes en toda ética empresarial. Valores como el respeto, la libertad, la responsabilidad, la igualdad en dignidad, las diferencias enriquecedoras y la solidaridad. Cada compañía los tiene que modular en su caso, también en la implementación de la IA. Después hay dos valores básicos, que vinculan las relaciones humanas y que despliego en mi libro Por qué tomarse la empresa con filosofía. Son los valores de la justicia y el cuidado. Imprescindibles.
Sesgos y ética
ORH.-¿Es posible que el cerebro humano funcione sin sesgos?
F. A. L.- No es posible. Ni somos totalmente objetivos ni vemos la realidad de forma completa. Todos tenemos sesgos (también la IA).
El peor de todos es el “sesgo del punto ciego” que consiste precisamente en creer que no los tenemos. Ahora bien, partiendo de ello son el conocimiento, la reflexión y el diálogo lo que nos permiten ser conscientes, reconocerlos y trabajar para evitarlos.
ORH.-¿Qué preguntas éticas deberían hacerse los desarrolladores de IA que crean herramientas para RRHH?
F. A. L.- No consiste en tener un recetario, sino una formación suficiente para darnos cuenta de la complejidad de la ética y saber cómo reflexionar y argumentar sobre en qué nos estamos basando en cada caso, de qué supuestos partimos, de qué información disponemos, qué razones argumentamos para utilizar unos criterios u otros a la hora de crear herramientas para RRHH, qué sesgos pueden estar presentes, qué consecuencias implican…
ORH.- ¿Qué habilidades cree que serán esenciales para los trabajadores en un mundo donde la IA está cada vez más presente?
F. A. L.- El pensamiento crítico es una habilidad clave. Es fundamental en nuestro acercamiento a la IA -cuando buscamos eficacia y rapidez para que nos libre de carga de trabajo- a la hora de darle instrucciones, pero sobre todo en el momento de evaluar sus respuestas. Para hacer esa evaluación necesitamos poner atención, tener conocimiento sobre el tema y criterio para discernir, es decir, pensamiento crítico. De hecho, a las pantallas hay que llegar con criterio. No nos lo da la IA, sino que la IA es un terreno fértil para ponerlo en práctica. Por eso el pensamiento crítico es previo, lo tenemos que aportar para que nuestra relación sea exitosa. Marcará la diferencia.
Lo grave y algunos estudios como el de Michael Gerlich así lo empiezan a mostrar, cuánto más nos acomodemos a la IA sin ningún esfuerzo personal, mayor merma del pensamiento crítico. Ese es el camino para ser vasallos.
La IA en RRHH: ¿limita o aporta?
ORH.- ¿Cree que la IA debería tener límites en su aplicación dentro de los procesos de RRHH? ¿Dónde trazar la línea?
F. A. L.- Cuando se habla de límites de la IA hay quien piensa en que se quiere aguar la fiesta. No nos damos cuenta de que no todo lo tecnológicamente posible es éticamente aceptable. Sobre los límites, Europa ha hecho un gran esfuerzo de reflexión que se ha concretado en un marco ético y una regulación con el Reglamento General de Protección de Datos (RGPD) que entró en vigor en 2018 y, recientemente, con la Ley de Inteligencia Artificial que fue aprobada en 2024 y que va entrando en vigor de forma paulatina.
Se irán viendo las mejoras que precisa, pero el hecho de que haya estas acciones es de vital importancia para caminar con la tecnología hacia un mundo que no nos deshumanice.
ORH.- ¿Cómo puede la IA ayudar en la creación de entornos de trabajo más humanos y colaborativos?
F. A. L.- Deberemos tener el ánimo de que así sea, porque también se empieza a ver lo contrario: contestas con IA, la otra persona te responde con IA y tenemos ahí un monólogo de inteligencia artificial donde los seres humanos voluntariamente se han excluido de la conversación. Por eso insisto en la importancia del esfuerzo que hemos de hacer las personas ante una herramienta tan tentadora.
ORH.- ¿Qué papel jugará la filosofía en el futuro del trabajo en la era de la inteligencia artificial?
F. A. L.- Dependerá del papel que queramos que juegue. Yo soy optimista. Creo que las empresas que van en la avanzadilla, con mirada larga, no pasan por alto lo mucho que la filosofía -la cuna del pensamiento crítico y la ética- especialmente en estos momentos les puede aportar. De hecho, lo comenzamos a ver.
ORH.- Como embajadora de IA+Igual, ¿Cuál es la importancia de que existan proyectos como este?
F. A. L.- Es fundamental. Siempre he seguido de cerca la labor de IA+Igual que he valorado por ir al núcleo de las personas ahondando en la IA en RRHH, por su esfuerzo en la explicabilidad para que se entiendan estos temas, por su empeño en fomentar la reflexión y por su sentido práctico para el ejercicio en el día a día. Por ello es todo un orgullo ser embajadora de este proyecto.