Las evaluaciones de desempeño han sufrido siempre muchas críticas, pero hoy más aún se las percibe como anacrónicas por ser un trámite burocrático poco útil. Esto sucede porque están mal hechas o mal planteadas, no porque estén obsoletas o no sean necesarias, que lo son y mucho para poner de manifiesto el mérito profesional; si bien es cierto que son imperfectas, porque las hacemos personas falibles. La subjetividad, los favoritismos sutiles y los más obvios, la elocuencia por encima d ela justicia, son los colaboradores invisibles de quiénes no saben mirar.
La IA surge como un elemento neutralizador, está penetrando en muchos procesos y en este en concreto pretende dar un paso hacia la “objetividad”. La posibilidad de implantar un sistema de evaluación basado en IA que procesa datos masivos es seductora: productividad real, tiempos de respuesta, cumplimiento de objetivos, impacto cuantificable en resultados. Todo medido, todo trazable, todo comparable. Un relato de equidad, menos sesgo y más meritocracia. Y en parte puede ser verdad, es posible que el algoritmo ayude a hacer desaparecer ciertos sesgos o decisiones menos caprichosas. Pero más allá de la promesa de neutralidad, a medida que se observa su funcionamiento, se percibe algo inquietante. Lo que no se puede medir deja de existir, no computa: el esfuerzo, el acompañamiento emocional en momentos críticos, la capacidad de escucha, la cultura informal que sostiene equipos, el mentorazgo, etc.
Y entonces surgen las dudas, ¿defiendemos el sistema por su aparente justicia técnica y eficiencia organizativa? ¿Asumimos la reducción de la amplia complejidad humana, de sus matices y de valores que dan sentido al ser humano, porque creemos que el sistema puede corregir injusticias reales del pasado?
Como siempre, nos encontramos con un dilema con trasfondo y no precisamente tecnológico. Es un dilema ético en torno a la idea de seguir dando cabida a lo que nos caracteriza como humanos y, sobre todo, a lo que nos hace diferentes y únicos a cada uno de nosotros.
El dilema
Eres directivo intermedio de una empresa que ha diseñado junto con un proveedor un algoritmo que permite un sistema de evaluación con un alto nivel de automatización. No has participado en el diseño del sistema, no has decidido los datos, ni las variables, ni los criterios, ni los pesos de las variables. Sin embargo, eres quien lo aplica, quien comunica resultados, quien mira a los ojos a las personas evaluadas. Como mando medio no eres un mero ejecutor, eres un puente, tu opinión es escuchada por la dirección.
La implantación del sistema fue presentada como un gran avance en transparencia y en meritocracia, con la “garantía de neutralidad algorítmica”. Parece razonable.
En la primera ronda de evaluaciones que arroja el algoritmo recibes el ranking generado por el sistema. Todo está perfectamente estructurado: puntuaciones, comparativas con la media del área, gráficos de evolución trimestral. Parece impecable.
En los primeros puestos aparece una persona de tu equipo que conoces bien. Sus métricas son incuestionables: tiempos de entrega excelentes, cumplimiento del 115% de objetivos, impacto directo en ingresos. El algoritmo lo premia como “high performer”, y sin embargo, tú sabes lo que el dashboard no muestra: que su eficiencia tiene un coste relacional, que evita compartir información si no le aporta ventaja directa, que su equipo rota más de lo habitual, que no hace un buen onboarding a los nuevos. Lleva equipos. ¿Es, entonces, un alto potencial?
En la zona media-baja aparece otra persona con números correctos, pero no extraordinarios. Cumple, pero no deslumbra. Sabes que es quien se queda después de una reunión difícil para calmar tensiones, quien explica pacientemente procesos a los nuevos, quien amortigua decisiones impopulares sin que el conflicto escale. Nada de eso está en los datos. No porque no importe, sino porque no es fácilmente cuantificable. Su equipo le sigue incondicionalmente.
Recibes entonces la convocatoria para una reunión de valoración del sistema, donde tu experiencia operativa es relevante, te preguntarán si el modelo está funcionando, si refleja la realidad del desempeño, si debería consolidarse como criterio central para promociones y bonus. Todo el mundo en la reunión parece estar de acuerdo con el sistema ya que le ahorra mucho tiempo y quebraderos de cabeza. Sin embargo, tu experiencia te dice que el liderazgo no se reduce a outputs. Sabes que los equipos, y, por ende, la cultura de la empresa no se construye solo con indicadores. Sabes que el carácter de las personas importa para conseguir buenos resultados y equipos sostenibles. Y ahí el dilema deja de ser teórico y se convierte en cultural y nos surge la pregunta: ¿Cómo impacta asumir como infalible un sistema de IA y qué tipo de organización se construye sin tener en cuenta la dimensión humana? ¿Es justo aquello que puede medirse con precisión o aquello que reconoce la totalidad de la persona? ¿Cuál sería tu posición en esa reunión?
Opción A: Defender el sistema por su objetividad y eficiencia
Si apoyas sin matices el sistema estás respaldando una concepción del desempeño únicamente centrada en resultados medibles. Estás validando que aquello que no entra en el algoritmo tiene menos peso. Puede que ganes coherencia institucional, claridad y alineación con la estrategia corporativa, pero también estarás enviando un mensaje implícito a tu equipo: lo que cuenta es lo que se mide, lo demás no importa.
No obstante, esta opción la ves delicada porque anticipas las consecuencias prácticas. El colaborador brillante en métricas probablemente recibirá mayor bonus, mayor visibilidad y quizás promoción, lo cual reforzará su estilo de trabajo en detrimento de otros comportamientos que alimentan más el ánimo y la resiliencia del equipo.
Opción B: Cuestionar el sistema por su excesiva reducción de la complejidad humana
Si cuestionas el sistema abiertamente puedes parecer resistente al cambio o excesivamente subjetivo. Con esta opción podrías debilitar un intento real de reducir favoritismos y, sin darte cuenta, abrir la puerta a volver a evaluaciones poco transparentes.
Con esta segunda postura señalas claramente sus limitaciones y manifiestas que ves más problemas que beneficios para los equipos. Por ejemplo, el colaborador más cohesionador que está en la media, ese que sostiene el equipo, puede sentirse infravalorado, puede empezar a preguntarse si merece la pena invertir energía en lo invisible y decidir dejar de hacer aquello que nadie reconoce formalmente. Es por ello que preferirías que la IA no se aplicara a un proceso tan delicado que necesita de una visión personal y humana.
Opción C: Integrar el sistema, pero humanizar la “evaluación de la IA”
En esta opción reconoces que la IA aporta datos valiosos, reduce sesgos y mejora transparencia, reconoces claramente sus beneficios, pero sostienes que la evaluación final debe incluir deliberadamente una dimensión humana y cualitativa (aunque imperfecta): la capacidad de trabajo en equipo, impacto cultural, desarrollo de otros, contribución al clima, coherencia con valores organizativos, ética personal y profesional.
Esta tercera vía implica aceptar la utilidad del algoritmo, pero no concederle la última palabra -que no está de más recordar está prohibido expresamente en el Reglamento europeo de IA-. Esto implica, por tanto, que el proceso de evaluación sigue siendo responsabilidad total del manager, que debe dar tiempo y espacio al proceso independientemente de utilizar el ranking del algoritmo. Es decir, la IA no nos quita todo el trabajo ni, por supuesto, los quebraderos de cabeza.