Para entender la lógica de razonamiento de la inteligencia artificial primero hemos de ser consciente de cuál es, como seres humanos, nuestra lógica de pensamiento. Las personas somos tan víctimas de los automatismos como la propia tecnología. Se llaman sesgos inconscientes y estamos condicionados por ellos permanentemente. Son cómodos porque son atajos mentales que nos evitan estar permanentemente cuestionando la idoneidad de nuestras decisiones, pero también la manifestación más primigenia de la peligrosa categorización que quiere evitar a toda costa el Reglamento Europeo de IA. Ser conscientes de nuestros metasesgos es, pues, una responsabilidad personal para evitar los sesgos del algoritmo, bien sea al etiquetar los datos y definir las conexiones entre ellos o bien sea interpretando los resultados que arroje el modelo. En Webinar ORH “IA y la gestión de RRHH. El sesgo está en los datos”, Yolanda Romero, coordinadora del Campus IA + Igual, ha planteado el marco de la reflexión que debe integrarse en todo modelo de gobernanza de la inteligencia artificial.
Las prioridades de eficiencia que puede aportar la IA en recursos humanos tiene el alto riesgo que les reconoce RIA en la medida en que la toma de decisiones empresariales sobre las personas puede afectar a sus derechos fundamentales en una dimensión nunca antes conocida. El sesgo algorítmico es el enemigo a minimizar y esa es una tarea exclusiva de la inteligencia humana que, en el entorno empresarial, precisa de una estrategia enmarcada en su misión, sus valores y su propósito corporativo que se extienda a unos procesos pautados con un aprendizaje de por medio no sólo técnico sino también en competencias transversales.
El webinar comenzó por aclarar el concepto de sesgo inconsciente, qué es un metasesgo y cómo se manifiestan, aportando ejemplos con los que todos, técnicos de TI y profesionales de RR.HH. podemos identificarnos fácilmente. Cuando los entendemos también comprendemos que los sesgos:
- perpetúan la discriminación,
- anulan la equidad
- y anulan el sentido de justicia.
Admitiendo que no son fáciles de reconocer, Yolanda Romero ha compartido algunas recomendaciones para minimizar la presencia de sesgos en la IA en dos vertientes: una más orientada a los datos y su tratamiento, asegurando la volumetría, la diversidad y tipología del dato adecuadas, y otra más orientada a la intervención humana en el análisis y evaluación del rendimiento del modelo algorítmico, en las que las herramientas que pueden ayudarnos son las siguientes:
Cómo «lidiar» con los sesgos inconscientes
Fuente: I+IGUAL, 2024.
El pensamiento crítico es una de las competencias más valiosas en esta caja de herramientas transversales para el uso ético y responsable de la IA, porque:
- Permite:
- tomar mejores decisiones y más justas,
- resolver problemas complejos,
- identificar sesgos cognitivos que distorsionan la realidad.
- Evita:
- que seamos fáciles de manipular,
- el victimismo,
- la polarización,
- el pensamiento único.
¿Qué activa el pensamiento crítico?
- Hacer buenas preguntas.
- Poner foco y prestar atención.
- Investigar fuentes y contrastar información.
- Establecer relaciones y comparativas fundamentadas en la premisa anterior.
- Escuchar diversas perspectivas.
¿Qué bloquea el pensamiento crítico?
- Necesitar las certezas y no querer dudar.
- Dispersar nuestra atención sólo hacia lo que nos interesa.
- Sucumbir a la inmediatez.
- Comprar la novedad sin filtros.
El pensamiento crítico es el proceso intelectual que implica analizar y evaluar la información, los datos y los escenarios de manera objetiva, cuestionando los planteamientos y las suposiciones utilizando el razonamiento lógico; por eso ayuda a evitar los sesgos inconscientes.