El desarrollo de la inteligencia artificial (IA) ha revolucionado múltiples sectores, incluido el departamento de recursos humanos. Al mismo tiempo, su avance plantea preguntas esenciales que no pueden responderse sólo desde la tecnología. En el mes de noviembre se celebra el Día Mundial de la Filosofía, una disciplina que no solo examina las grandes preguntas de la humanidad, sino que busca ofrecer respuestas prácticas a los retos contemporáneos. En el contexto de la inteligencia artificial, especialmente en un ámbito tan sensible como los recursos humanos, la filosofía emerge como una aliada imprescindible para garantizar que el desarrollo tecnológico sea ético, inclusivo y centrado en las personas.
Esther Rodríguez-Losada, investigadora en el Instituto de Ciencia de Datos e Inteligencia Artificial de la Universidad de Navarra (DATAI) —partner académico de IA+Igual—, explica cómo al igual que con toda innovación, la IA “exige plantearse preguntas sobre su uso adecuado y los posibles riesgos derivados de su aplicación”. En este contexto, la filosofía y el pensamiento crítico desempeñan un papel esencial. Aunque a primera vista puedan parecer desconectados del ámbito tecnológico, su colaboración es clave para garantizar que el desarrollo de la IA tenga como eje central el bienestar colectivo. Esto es especialmente importante en el uso de IA en el ámbito del mercado laboral y los recursos humanos, que ha sido calificado como de alto riesgo por la Unión Europea.
Ética y Sesgos
Algunos desarrollos de la inteligencia artificial son especialmente sensibles a la problemática de los sesgos, como ocurre en su aplicación en RRHH. Los algoritmos, al basarse en datos y patrones preexistentes, pueden perpetuar o incluso amplificar desigualdades sociales, impactando negativamente en aspectos críticos como la selección de personal, las promociones internas o la evaluación de desempeño. Esto no solo compromete la equidad de los procesos, sino que también puede afectar directamente a las oportunidades y al bienestar de las personas involucradas.
Según la investigadora, la filosofía, especialmente la ética, tiene un papel clave en identificar y mitigar estos sesgos. Esto implica no solo establecer criterios éticos para proteger a grupos vulnerables, sino también promover una supervisión constante de las herramientas de IA. En sus palabras: “No debemos permitir que el avance científico y la reflexión humanista sobre los criterios para el uso responsable de la inteligencia artificial queden desacompasados”.
“Cualquier desarrollo en IA relacionado con RRHH debe contar con el juicio experto de un comité de ética que avale la forma en la que se alimenta el sistema, el modo en que se seleccionan los datos y la forma en la que van a realizar las consecuencias que se extraen de la herramienta”, asegura Javier Moscoso, filósofo del CSIC y miembro del Consejo Asesor de IA+Igual.
¿Por qué necesitamos un enfoque humanista en la IA para RRHH?
En un contexto digital dominado por la IA, preservar un enfoque humanista es más crucial que nunca. Esther Rodríguez-Losada subraya que el progreso científico debe ir de la mano de la reflexión humanista para garantizar que las herramientas tecnológicas estén siempre al servicio de las personas. La filosofía, en este sentido, actúa como un puente entre ambos mundos, asegurando que no se pierde de vista el propósito último de estas innovaciones: mejorar la vida humana.
Javier Moscoso añade que la IA, como patrimonio de la humanidad, no pertenece únicamente a quienes la desarrollan o la usan. Esto refuerza la necesidad de un enfoque inclusivo y ético, especialmente en un campo tan sensible como RRHH, donde las decisiones automatizadas pueden afectar directamente a la vida de las personas.
En definitiva, el avance de la IA en RRHH representa una oportunidad para mejorar procesos y optimizar resultados. Sin embargo, su desarrollo no debe desentenderse de las preguntas fundamentales que plantean la filosofía y las humanidades. Reflexionar sobre cómo y para qué se usa esta tecnología no solo es deseable, sino imprescindible para garantizar que sus beneficios lleguen a toda la sociedad sin generar nuevas desigualdades.
La integración de la filosofía en el desarrollo y aplicación de la IA es una llamada a la responsabilidad colectiva. Y, como añade Moscoso, “puesto que la filosofía tiene también sus sesgos”, el modo de combatirlos “depende de un juicio colectivo y consensuado entre expertos de distintas ramas del saber y de distintas aptitudes y experiencias profesionales”. Rodríguez-Losada coincide en la necesidad de una supervisión constante. Solo a través de un trabajo colaborativo entre disciplinas es posible diseñar herramientas que realmente respondan a los principios de equidad y justicia.