Algoritmos en lugar de jueces: la distopía que plantea ‘Justicia Artificial’ y su reverso en RRHH
Existe un debate abierto sobre qué empleos hará desaparecer la irrupción de la inteligencia artificial. Pero calcular cuál es el alcance evolutivo y cómo impactará en el mercado laboral es sólo un comienzo. Por ejemplo, ¿Podrá sustituir empleos públicos? ¿En qué ámbitos? La película ‘Justicia artificial’ plantea la sustitución de los jueces por un algoritmo para mejorar la eficiencia de los juzgados y ayudar a los magistrados españoles a dictar sentencias más “justas”.
El verdadero debate comienza cuando el algoritmo pasa de ser un ayudante avanzado que mejora la eficiencia del juzgado y se convierte en un sustituto del juez en la toma de decisión para emitir un veredicto. Y este es el quid de la cuestión. Tras la reciente entrada en vigor del Reglamento de Inteligencia Artificial (RIA) europeo, la mayoría de las empresas se plantean si es conforme a la ley y la ética sustituir algunos puestos de trabajo o funciones por la inteligencia artificial (IA) para mejorar la productividad. Diversos estudios demuestran que, si bien algunos empleos desaparecerán y aparecerán otros nuevos, el verdadero reto de recursos humanos es capacitar al talento de la organización para que sepa convertir a la IA en un apoyo eficiente para su desempeño. Aquellos profesionales que integren la IA en sus tareas diarias tendrán más opciones de «sobrevivir» que aquellos que se queden al margen de la integración tecnológica.
Sí o no a la inteligencia artificial
Al ver la película (trailer oficial), el espectador podría preguntarse si la IA es buena o mala, un pregunta muy lógica, por otra parte. La cuestión es que, en sí mismo, un algoritmo no es ni bueno ni malo. Es legítimo que una empresa, un juzgado o cualquier institución pública o privada, se plantee utilizar la inteligencia artificial para aprovechar el mundo de oportunidades que ofrece. Sin embargo, la IA es tan buena o tan mala como la persona que se sirve de ella para tomar decisiones. Lo importante no es el qué, -un algoritmo que toma decisiones jurídicas-, sino el «para qué.» ¿Para ser eficientes y justos? ¿Para que interprete la Ley cómo más le interesa al ministerio fiscal? ¿A la acusación? ¿Al demandado? ¿Al demandante?
En la película, la programadora y CEO de la empresa desarrolladora y propietaria del algoritmo, Alicia Kóvack (Alba Galocha) y la jueza Carmen Costa (Verónica Echegui) se plantean esta cuestión.
En el ámbito de los recursos humanos, por ejemplo, se están aplicando herramientas de IA para predecir la fuga de talento en una organización. Pero, ¿para qué se predice? Puede ser para identificar ese talento en riesgo y planificar acciones de bienestar, teletrabajo, sostenibilidad o formación dirigida a esos perfiles para evitar que se vayan. O, conocida la información, si esos perfiles no interesan, darles el empujoncito definitivo para que se vayan. Es el mismo «qué» pero diferentes «para qué».
Pasado, presente, futuro de los datos
Cuando un presunto culpable espera un veredicto, igual que cuando un empleado se enfrenta a la valoración de su desempeño en la empresa, por ejemplo, espera una decisión justa, basada en las evidencias (datos) y dentro de un contexto que permita cierta interpretación que debe ser lo más objetiva posible.
Si partimos de la base de que los sesgos son una herramienta que utiliza el cerebro para atajar analizando la información y tomando decisiones lo más rápido posible, entenderemos que es muy probable que estos sesgos -afinidades sociales, culturales, políticas, religiosas, de raza…- se entrometan en todas las decisiones humanas. El error está en pensar que un algoritmo, es decir, un sistema que funciona con matemática avanzada y estadística, es infalible y, por tanto, teóricamente neutral a la hora de tomar una decisión, ya sea impartiendo justicia, o proponiendo un plan de carrera.
¿Por qué es un error? Efectivamente. Por los datos. Cuando usamos un algoritmo, ¿Sabemos con qué datos ha sido entrenado? ¿Estaban actualizados? ¿Quién y cómo se gestionan? La realidad es que los datos, el universo de información que está en la red están sesgados porque la realidad, también lo está. ¿Cómo garantizamos entonces que el algoritmo es neutral? ¿Estamos seguros que está ofreciendo la mejor respuesta para nuestra organización?
La película plantea otro tema básico: las emociones. ¿Qué papel juegan en el desarrollo de la IA? El RIA aborda este tema que tanto debate generó en las negociaciones preliminares de la UE y prohíbe explícitamente el uso de sistemas de IA en el entorno laboral para inferir emociones a través de sistemas biométricos. Si en el ámbito laboral este uso está calificado de alto riesgo, ¿sería ético utilizarlo para determinar si un testigo miente o no?
Marketing ‘fake’
El RIA dictamina que el uso de la IA debe ser transparente y explicable, algo de lo que prescinden en el film los directivos y accionistas de la empresa desarrolladora. Ante la ignorancia de los jueces, los intereses económicos y los objetivos políticos de presentar la IA como la justicia «definitiva», la trama avanza hacia el lanzamiento de un algoritmo incompleto cuyos resultados son absolutamente desconocidos para todos los implicados. En la trama, ocultan estos intereses con una agresiva campaña de marketing basada en fake news que la audiencia no sabe valorar.
Las empresas se encuentran también ante este dilema. La necesidad de implementar inteligencia artificial que genere eficiencia, mejore la competitividad y aumente los resultados; el interés de las compañías por innovar y posicionarse en el mercado y el temor a iniciar un camino para el que todavía no hay unas reglas claras y existe un desconocimiento generalizado. Los directivos se enfrentan al enorme impacto de la IA, difícil de dimensionar en medio de una ola tan disruptiva.
Enfoque multidisciplinar
La tentación de dejarse llevar por la corriente que plantea la película es acertada pero no la resuelve. En estos momentos, ¿Quién podría? La IA ha llegado para quedarse, pero no a cualquier precio. Como cualquier otro gran avance tecnológico, la inteligencia artificial suscita grandes temores. Hace dos siglos, por ejemplo, la prestigiosa revista científica The Lancet bautizó como “máquina infernal” al ferrocarril mientras las vías se convertían en un elemento más del paisaje. Hoy por hoy, resulta difícil plantearse el transporte de pasajeros y mercancías sin el tren, pero tanto en el pasado como en el presente, que el fin no justifica los medios.
Tanto el RIA como los diferentes grupos de expertos que trabajan en el desarrollo de un entorno confiable, ético, seguro y explicable de la IA defienden que el camino pasa por la multidisciplinariedad. Trabajar con grupos de conocimiento diverso que aporten sus diferentes visiones a cada uno de los ámbitos de uso de la IA es una garantía para detectar posibles éticos y esgrimir respuestas ante los planteamientos dudosos del para que se va a utilizar el algoritmo.
El valor de la auditoría
La auditoría se revela, también en la película, como una herramienta clave para conseguir generar sistemas de IA que, además de responder a la normativa, garanticen su uso ético, confiable y explicable.
El proyecto IA+Igual, financiado con fondos Next Generation del plan de Resiliencia y Recuperación del Gobierno de España, a través del área de Innovación social de la Comunidad de Madrid contribuye con su investigación empírica a analizar el impacto que están teniendo los sesgos en las herramientas de IA aplicadas a procesos de RRHH. El objetivo es crear un Libro Blanco que siente las bases de un sistema escalable de auditoría algorítmica que minimice su impacto.
El proyecto cuenta con un itinerario formativo gratuito, dirigido especialmente a profesionales del ámbito de RRHH, que pretende poner a su disposición habilidades y conocimientos útiles para la toma de decisiones.
Si su empresa está trabajando con un algoritmo de IA desarrollado por su compañía o subcontratado, aplicado a cualquier proceso de RRHH, y quiere conocer el alcance de su usabilidad, sus garantías éticas y normativas y si los sesgos están determinando su funcionamiento, póngase en contacto con nosotros a través de
Es un procedimiento gratuito y con todas las normas de confidencialidad que exige la normativa de protección de datos y la preservación de la imagen de marca.