¿Dilema resuelto?
La ética de la decisión con IA es la que integra datos, eficiencia y humanidad
¿Puede la eficiencia sustituir al juicio prudencial del líder? Análisis ético de la evaluación del desempeño mediada por inteligencia artificial.
Este análisis responde al planteamiento original del dilema: «¿Evaluados por una IA neutral?». Si no has leído la situación que lo genera puedes consultar el enunciado completo en Dilema de Aquiles #11 · ObservatorioRH antes de continuar con la reflexión ética.
Las organizaciones siempre han aspirado a evaluar mejor. Evaluar significa decidir qué reconocemos, qué recompensamos y qué modelo de persona y comportamientos promovemos. La aparición de la IA en los procesos de RR. HH introduce un elemento disruptor: una promesa de objetividad, trazabilidad y ecuanimidad. El algoritmo se presenta como neutralizador de favoritismos y garante de meritocracia.
Sin embargo, desde la ética de la IA sabemos que la neutralidad técnica no equivale automáticamente a justicia. Todo sistema algorítmico incorpora un diseño, supuestos definidos por humanos donde se decide qué variables importan, cómo se ponderan, qué comportamientos se consideran valiosos… La IA no crea valores, operativiza los que previamente hemos decidido codificar.
El dilema no es tecnológico sino profundamente ético. ¿Debemos identificar justicia con medición precisa o con reconocimiento integral de la persona? ¿Puede la eficiencia sustituir al juicio prudencial del líder?
Analicemos cada opción desde la ética de la IA.
Defender el sistema por su objetividad y eficiencia
Desde una perspectiva utilitarista, esta opción tiene una coherencia sólida. Si el sistema reduce sesgos, mejora la transparencia y aumenta la productividad organizativa, su implementación podría justificarse por el bien agregado que produce. La IA permitiría decisiones más consistentes, menos arbitrarias y más alineadas con objetivos estratégicos.
Este enfoque se relaciona con el principio de optimización: usar datos masivos para maximizar resultados y minimizar error humano. Además, puede alinearse con el principio de equidad procedimental: todos son evaluados bajo los mismos criterios, sin trato preferencial visible.
Ética utilitarista Equidad procedimentalSin embargo, aquí emerge una cuestión crítica: la reducción ontológica del desempeño. El sistema define como valioso solo aquello que puede cuantificarse. Desde la perspectiva kantiana, existe un riesgo claro de instrumentalizar a la persona: si solo premiamos outputs cuantificables, tratamos al trabajador como medio productivo más que como fin en sí mismo.
Los sistemas algorítmicos tienden a generar efectos performativos: lo que se mide se convierte en lo que se persigue. La pregunta ética aquí no es si el sistema funciona, sino qué tipo de organización crea. Una organización altamente eficiente puede ser culturalmente frágil si ignora dimensiones invisibles del liderazgo.
Cuestionar el sistema por su reducción de la complejidad humana
Esta postura se apoya en una ética del reconocimiento, inspirada en tradiciones como la ética de la virtud o la filosofía del cuidado. Sostiene que el valor de una persona no puede agotarse en indicadores cuantitativos.
Esta opción alerta sobre el riesgo de tecnocracia: la tendencia a delegar decisiones normativas complejas en sistemas que aparentan neutralidad. Puesto que todo algoritmo está diseñado bajo ciertos supuestos y prioridades, si no los cuestionamos corremos el riesgo de naturalizar decisiones que en realidad son profundamente arbitrarias.
Ética del reconocimiento Supervisión humana significativaCuestionar el sistema permite defender el principio de supervisión humana significativa, un pilar central en los marcos regulatorios actuales de IA. La evaluación de personas es un proceso de alto impacto y, por lo tanto, no debería automatizarse sin deliberación crítica.
No obstante, esta opción tiene riesgos éticos propios, porque rechazar el sistema puede implicar volver a modelos anteriores donde los sesgos humanos propiciaban opacidad y falta de auditabilidad. La pregunta honesta es: ¿Rechazamos el sistema porque es injusto o porque nos incomoda perder margen discrecional?
Integrar el sistema, pero humanizar la evaluación
Esta opción encarna un enfoque de ética híbrida o complementaria. Reconoce la capacidad de la IA para procesar datos con rigor, pero afirma que el juicio final debe seguir siendo humano y deliberativo. Se alinea con tres principios fundamentales para una IA responsable:
Proporcionalidad
Usar la IA como herramienta de apoyo, no como instancia decisoria absoluta en procesos de alto impacto.
Explicabilidad
Los datos deben interpretarse dentro de narrativas humanas que aporten contexto y significado.
Responsabilidad última
El manager sigue siendo moralmente responsable de la decisión, con independencia del dato algorítmico.
Esta integración evita el reduccionismo algorítmico sin idealizar la subjetividad humana. La IA aporta evidencia; el líder aporta prudencia: la phronesis aristotélica que exige al directivo no abdicar de su juicio moral bajo la aparente neutralidad del algoritmo.
Además, esta opción protege algo esencial en la ética organizativa: la formación del carácter, del êthos griego. Significa poner en valor dentro del sistema dimensiones cualitativas como la ética profesional, el compañerismo, la cohesión, la lealtad o el compromiso. ¿Hablar de virtudes hoy dentro de la organización? Eso sí es disruptivo.
No obstante, esta vía es la más exigente. No elimina complejidad ni reduce trabajo, más bien obliga al manager a justificar por qué puede apartarse parcialmente del ranking algorítmico, asumiendo que la tecnología no sustituye la responsabilidad moral: la intensifica.
¿Con qué opción te sientes más cómodo?
Tu posición ante el dilema. Elige la que mejor represente tu perspectiva ética como profesional de RR. HH.
El dilema no enfrenta tecnología contra humanidad sino que plantea una pregunta crítica: ¿Qué entendemos por justicia? Y confronta dos concepciones:
Justicia como precisión medible
La IA puede mejorar la consistencia y reducir sesgos visibles, pero no puede captar intenciones, contextos ni virtudes invisibles. Si convertimos la medición en sinónimo de valor, estrechamos la definición de excelencia humana.
Justicia como reconocimiento integral
Ignorar el potencial de la IA sería renunciar a herramientas que pueden corregir injusticias reales del pasado. La clave está en cómo usarlas sin abdicar del juicio humano en procesos de alto impacto.
La posición más éticamente sólida es aquella que integra datos y deliberación, eficiencia y humanidad. Una organización verdaderamente justa no es la que mide todo con precisión, sino la que reconoce que no todo lo valioso puede medirse y, aun así, se esfuerza por hacerlo visible.
En última instancia, la IA no decide qué es justo, somos nosotros quienes decidimos qué queremos considerar justo y luego diseñamos sistemas que lo reflejen. La pregunta decisiva en esa reunión no será si el algoritmo es técnicamente impecable, sino si estás dispuesto a recordar que evaluar personas sigue siendo, irreductiblemente, un acto éticamente humano.
El reduccionismo algorítmico es el proceso por el cual la complejidad humana queda comprimida en variables medibles. El sistema define como valioso solo aquello que puede cuantificarse, generando una distorsión de la realidad organizativa en la que el colaborador eficiente pero relacionalmente tóxico podría ascender porque maximiza indicadores, aunque erosione el tejido humano de la organización.
La phronesis o sabiduría práctica aristotélica exige al directivo no abdicar de su juicio moral bajo la aparente neutralidad del algoritmo, e implica saber cuándo confiar en el dato y cuándo cuestionarlo, integrando experiencia, sensibilidad ética y responsabilidad.
Decidir bien no es aplicar automáticamente un sistema, sino asumir la carga moral de interpretar lo que el sistema no puede comprender: la singularidad del carácter, la intención, el impacto relacional y el bien a largo plazo de la comunidad.
Los sistemas de evaluación algorítmica tienden a generar efectos performativos: lo que se mide se convierte en lo que se persigue. Por ello, defender sin matices el sistema no solo valida una herramienta, sino que consolida un modelo antropológico de trabajador orientado exclusivamente a métricas.
Esto plantea la pregunta de si queremos ser, como organizaciones y como personas, más que lo que arrojan los datos.
El êthos griego se refiere a la formación del carácter. En el contexto organizativo, significa poner en valor dentro del sistema dimensiones cualitativas como la ética profesional, el compañerismo, la cohesión, la lealtad, el compromiso y la cultura.
Incorporar estas virtudes al proceso evaluativo comunica que la organización valora virtudes, no solo resultados. En el contexto actual, hablar de virtudes dentro de la organización no es conservadurismo, es lo genuinamente disruptivo.