El pasado domingo entró en vigor el Reglamento de Inteligencia Artificial (RIA), marcando un antes y un después en la regulación del uso de esta tecnología en la Unión Europea. Con especial impacto en el ámbito de los recursos humanos, el RIA considera la IA aplicada al mercado de trabajo y la gestión de personal como una tecnología de alto riesgo, lo que implica la necesidad de un cumplimiento riguroso para evitar sanciones. Han entrado en vigor los artículos 4 y 5, que establecen obligaciones cruciales a proveedores y empresas que implementen IA. A su vez, se prohíben prácticas de riesgo máximo, como técnicas manipuladoras, la explotación de vulnerabilidades, la clasificación ciudadana mediante puntuación, la predicción de criminalidad o el uso de reconocimiento facial masivo, entre otras.
Las empresas deben prestar especial atención a la entrada en vigor de estas normativas, ya que las sanciones por incumplimiento, aunque no aplicables hasta el 2 de agosto de 2025, pueden alcanzar hasta el 7% de la facturación anual. Esto supone un riesgo significativo para aquellas organizaciones que no adapten sus procesos a tiempo.
Está claro que la IA en recursos humanos y en el mercado laboral será sometida a un control estricto, obligando a las empresas a replantear su uso para alinearse con este nuevo marco legal. Su impacto es una cuestión clave que requiere un marco regulador claro para garantizar un uso ético y evitar discriminaciones. Sobre este tema ha escrito recientemente Estela Martín, abogada y Dircom de Sincro, Presidenta de la Sección de la Igualdad del ICAM y embajadora del proyecto IA+Igual, en un artículo publicado en Economist & Jurist. La también experta en comunicación expone seis claves para tener en cuenta este 2025.
La IA en la negociación colectiva y los Planes de Igualdad
Uno de los aspectos fundamentales que señala Estela Martín es la necesidad de que la IA tenga un espacio dentro de la negociación colectiva. Aunque su inclusión en convenios colectivos es aún limitada, ya existen ejemplos de regulaciones específicas, como por ejemplo el XXV Convenio Colectivo de Banca, que establece limitaciones expresas en el uso de IA y refuerza el derecho a la educación digital. Además, la abogada resalta la importancia de llevar la discusión sobre la IA también a los Planes de Igualdad, abordando no solo la discriminación de género, sino también otros factores como la edad, ya que el edadismo es uno de los grandes retos del mercado laboral actual.
Empresas sin IA frente a trabajadores que la usan
Uno de los puntos más interesantes del análisis de Martín es la brecha que se está generando entre empresas que no han implementado el uso de IA y trabajadores que ya la utilizan en su día a día. Esto puede derivar en riesgos en términos de seguridad de la información, confidencialidad y propiedad intelectual. La experta recomienda que las organizaciones realicen un análisis DAFO sobre la IA a nivel laboral para medir riesgos y oportunidades, diseñando así un plan de acción adecuado.
Análisis DAFO de la IA en el ámbito laboral
Para garantizar un uso efectivo y responsable de la inteligencia artificial en el entorno laboral, las empresas deben realizar un análisis DAFO (Debilidades, Amenazas, Fortalezas y Oportunidades) específico para la IA. Este ejercicio permite identificar riesgos, maximizar beneficios y definir estrategias para minimizar impactos negativos. Si bien la IA plantea desafíos como la posible eliminación de empleos o sesgos discriminatorios, también ofrece oportunidades para optimizar procesos, mejorar la eficiencia y potenciar la formación digital de las personas trabajadoras.
Más allá de los riesgos asociados al uso de la IA, Martín destaca su potencial en áreas como la prevención de riesgos laborales. Según un informe de la Agencia Europea para la Seguridad y Salud en el Trabajo, la IA puede ayudar a detectar problemas de seguridad y salud, incluyendo riesgos psicosociales. También señala que, si finalmente se implementa la jornada de 37,5 horas, la IA podría ser clave para mitigar su impacto en la productividad.
Regulación de la IA
En el ámbito normativo, Martín resalta la importancia del Reglamento de Inteligencia Artificial (RIA) de la Unión Europea, que entrará en vigor en 2026 (aunque una primera parte acaba de entrar en vigor con fecha 2 de febrero de 2025). Este reglamento prohíbe, entre otros, el uso de sistemas de IA para inferir emociones en el entorno laboral y clasifica como de alto riesgo aquellas aplicaciones utilizadas en procesos de contratación, promoción o supervisión de empleados.
El peligro de los sesgos
El uso de IA en el ámbito laboral debe abordarse con especial atención a los sesgos que pueden derivar en discriminaciones, no solo de género, sino también por edad, condición de salud u otros factores. La Ley 15/2022 establece que administraciones y empresas deben garantizar una IA ética y respetuosa con los derechos fundamentales. Asimismo, informes de la UNESCO y la OIT han alertado sobre el impacto negativo de la IA en la equidad laboral, destacando que puede afectar de manera desproporcionada a ciertos colectivos si no se implementan medidas adecuadas para su supervisión y corrección.
IA en la estrategia empresarial y los códigos éticos
Finalmente, Martín aboga por que las empresas incorporen la IA en sus políticas de Responsabilidad Social Corporativa y códigos de buen gobierno. También destaca la relevancia del Código de Buenas Prácticas para la IA de Propósito General presentado por la Comisión Europea en 2024, el cual proporcionará directrices clave para un uso seguro y confiable de la IA dentro de la UE.
Desde IA+Igual, compartimos la visión de Estela Martín sobre la necesidad de un uso ético y regulado de la IA en el ámbito laboral. La transformación que estamos viviendo debe estar guiada por el respeto a los derechos fundamentales y el liderazgo humanista. La IA ofrece grandes oportunidades, pero también plantea desafíos que deben abordarse con responsabilidad y visión de futuro.