El Reglamento de Inteligencia Artificial, recientemente publicado, establece un marco legal para el uso de sistemas de IA en la UE, con un enfoque particular en la mitigación de riesgos y la promoción de la transparencia y la equidad. Según este reglamento, la mayoría de las aplicaciones de IA en RRHH serán consideradas de alto riesgo y estarán sujetas a requisitos estrictos de transparencia, seguridad y equidad. Tras la lectura de los primeros borradores de este reglamento, comenzó a extenderse el mensaje de que el Reglamento prohibía el reconocimiento de emociones de forma expresa y que esto conllevaría revisar muchos modelos de análisis de sentimientos utilizados hoy en día por las áreas de Personas. Pero, ¿qué hay de verdad en este rumor? Vamos a desglosarlo. Comencemos entendiendo bien qué es esta técnica.
El análisis de sentimiento es una técnica que utiliza herramientas de procesamiento del lenguaje natural (PLN) y aprendizaje automático (machine learning, ML) para identificar y extraer opiniones subjetivas de datos textuales, de forma similar a como lo haría un humano. El análisis de sentimiento, en la mayoría de las ocasiones, clasifica los comentarios en términos de positivo/negativo/neutro. Sin embargo, algunos modelos sí van más allá y buscan comprender el estado de ánimo e identifican emociones específicas.
Una vez que hemos entendido qué es lo siguiente que queremos saber es: ¿Qué dice el RIA expresamente?
La legislación define literalmente el sistema de reconocimiento de emociones como aquel «destinado a distinguir o deducir las emociones o las intenciones de las personas físicas a partir de sus datos biométricos. El concepto se refiere a emociones o intenciones como la felicidad, la tristeza, la indignación, la sorpresa, el asco, el apuro, el entusiasmo, la vergüenza, el desprecio, la satisfacción y la diversión. No incluye los estados físicos, como el dolor o el cansancio, como, por ejemplo, los sistemas utilizados para detectar el cansancio de los pilotos o conductores profesionales con el fin de evitar accidentes. Tampoco incluye la mera detección de expresiones, gestos o movimientos que resulten obvios, salvo que se utilicen para distinguir o deducir emociones. Esas expresiones pueden ser expresiones faciales básicas, como un ceño fruncido o una sonrisa; gestos como el movimiento de las manos, los brazos o la cabeza, o características de la voz de una persona, como una voz alzada o un susurro.» (Parlamento Europeo, 2024).
Además, el RIA incluye como práctica prohibida explícitamente el uso de sistemas de IA para inferir emociones de personas en el lugar de trabajo, excepto cuando estos sistemas se utilicen con fines médicos o de seguridad.
Por tanto, vemos que lo que se está prohibiendo es el uso de datos biométricos para reconocer emociones. ¿Y es esto lo que hacemos en RRHH? Analizamos algunos casos de uso para entender si entran o no como práctica prohibida.
Caso 1: Análisis de sentimiento en encuestas de clima laboral
En el ámbito de RRHH, el caso de uso por excelencia de análisis de sentimiento se aplica a los comentarios abiertos de las encuestas de clima laboral. Por ejemplo, al detectar si los comentarios de los empleados son positivos, negativos o neutros, los departamentos de RRHH pueden priorizar la lectura de comentarios negativos y tomar medidas correctivas más rápidamente. Adicionalmente usamos otro tipo de técnicas de IA para clasificar dichos comentarios en función de su temática, así poder analizar mejor la voz de nuestros empleados de forma agregada y elaborar planes de acción con mayor impacto.
En este caso de uso, no estaríamos utilizando datos biométricos y, por tanto, no estaría prohibido por el RIA.
Caso 2: Monitoreo del bienestar
Además del análisis de comentarios de encuestas, el análisis de sentimiento se utiliza para monitorear el bienestar de los empleados a través de sus interacciones en plataformas internas, correos electrónicos y otros canales de comunicación. Este tampoco sería un caso de uso prohibido en RIA porque no se basaría en datos biométricos.
Otras aplicaciones
¿En qué otros casos de uso de RRHH podríamos estar usando el reconocimiento de emociones con datos biométricos?
- Entrevistas virtuales a candidatos: Algunas herramientas de entrevistas virtuales analizan las expresiones faciales y el tono de voz de los candidatos para evaluar sus reacciones emocionales durante la entrevista y ofrecerle un informe al reclutador con esta información, como parte del proceso de selección.
- Monitorización de emociones de empleados: Analizar las videollamadas entre empleados, o las cámaras del edificio, para detectar el estado de ánimo de los empleados en tiempo real y ofrecer un informe al departamento de RRHH, de forma agregada.
- Monitoreo de productividad y bienestar: Utilizar sensores biométricos para monitorear el bienestar y la productividad de los empleados, analizando parámetros como la frecuencia cardíaca, la presión arterial y otros indicadores fisiológicos que podrían correlacionarse con el estado emocional.
En estos tres casos de uso estamos contemplando el uso de datos biométricos (imagen, voz, parámetros fisiológicos) y difícilmente podrían justificarse con un fin médico o de seguridad. Por tanto, estaríamos ante posibles prácticas prohibidas.
¿Qué debemos hacer si hoy en día estamos llevando a cabo este tipo de casos de uso? Si en tu área de Personas estáis utilizando este tipo de herramientas internas/de mercado o tienes dudas, aquí tienes algunas recomendaciones:
- Auditoría de herramientas actuales: Revisa las herramientas y sistemas de IA actualmente en uso en el departamento para asegurarte de que no infringen la nueva normativa. Especialmente, asegúrate de que no se utilicen datos biométricos para el reconocimiento de emociones, salvo en los casos permitidos por el reglamento.
- Comité interdisciplinar: Esta no es una labor que puedas hacer en soledad. Solicita el apoyo de otros equipos implicados, como Tecnología, Legal o Gobierno del dato, para asegurarte de que la auditoría es rigurosa. Además garantizará que las decisiones, como la interrupción de las prácticas prohibidas, se toman en tiempo y forma.
- Implicación del proveedor: Si son herramientas de mercado o realizadas a medida por un proveedor externo, solicita una reunión con ellos para que te informen sobre cómo están cumpliendo la normativa, o qué medidas van a tomar a corto plazo para cumplirla si aún no se cumplen.
- Adopción de alternativas: Explora alternativas al reconocimiento de emociones basado en datos biométricos. Por ejemplo, utilizar únicamente técnicas de procesamiento del lenguaje natural para análisis de sentimiento que no impliquen el uso de datos biométricos.
Referencias:
- https://www.ibm.com/es-es/topics/sentiment-analysis
- Parlamento Europeo y Consejo de la Unión Europea. (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.° 300/2008, (UE) n.° 167/2013, (UE) n.° 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial). Diario Oficial de la Unión Europea. ELI: http://data.europa.eu/eli/reg/2024/1689/oj
Contenido:
- Objetivos y plazos.
- Enfoque de riesgo basado en valores.
- Impacto en la gestión RH.
- Obligaciones en la IA de alto riesgo.
- Deberes de transparencia e instrucciones de uso.
- Datos de calidad.
- Mapa de ruta.