Con el curso escolar recién estrenado, llega el momento de plantearse nuevos retos. Para los departamentos de RRHH, la entrada en vigor del Reglamento Europeo de IA (RIA), el pasado 2 de agosto, es mucho más que un propósito de buenas intenciones. Las empresas han comenzado a implantarlo de forma gradual, como contempla la nueva normativa, mientras los gobiernos empiezan a poner coto a los usos fraudulentos de conocidas redes sociales. Recopilamos algunas ideas y valores nucleares en el punto de salida de esta carrera crítica para las compañías y sus trabajadores y por ende para la sociedad.
Mientras las empresas comienzan a implantar el RIA, ya se avista otra normativa, en este caso de alcance global, el Convenio Marco sobre Inteligencia Artificial y derechos humanos, democracia y Estado de derecho, impulsado por el Consejo de Europa y aprobado el pasado 5 de septiembre. Ahora le negociación continúa, abierta a la adhesión de los miembros del Consejo de Europa, la UE y terceros países de todo el mundo.
Por su parte, gobiernos de todo el mundo empiezan a poner coto al uso de las redes sociales: mientras que la semana pasada fue detenido en París el presidente de Telegram por la difusión de contenido pedófilo y el uso de esta red con fines criminales, en Brasil se ha prohibido X y varios países de la UE, incluido España, han pedido a esta misma red que deje de usar los datos personales para desarrollar su IA sin solicitar el consentimiento personal (Jesús Mercader, catedrático de Derecho de Trabajo: “La IA respira datos y hay que conseguir que respire el aire más puro posible”).
Centrándonos el RIA, pone el acento en la dimensión ética, explica Maite Sáenz, directora de ORH y copromotora de IA+Igual: “Los valores de la UE de respeto de la dignidad humana, la libertad, la igualdad, la democracia y el Estado de Derecho, así como de los derechos fundamentales de no discriminación, la protección de datos e intimidad y los derechos del niño, están en el frontispicio de este nuevo Reglamento que se convierte en la primera legislación internacional en amparar, con tal nivel de amplitud, el uso ético y responsable de la inteligencia artificial”.
Sáenz ha editado la Guía práctica de introducción al Reglamento Europeo de IA, que recopila información básica sobre los contenidos del Reglamento. Este documento ordena los conceptos, aclara los impactos y ofrece claridad sobre las obligaciones de los responsables del despliegue de la IA en las organizaciones, así como sobre los proveedores de la tecnología No es un análisis exhaustivo de todo su articulado sino una puesta en contexto del Reglamento en el ámbito del mercado del empleo y de la gestión de RR.HH.
Plazos
El RIA ha entrado en vigor con algunas excepciones:
- Prácticas prohibidas: a partir del 2 de febrero de 2025.
- Seguridad de los productos: a partir del 2 de agosto de 2025.
- Sistemas de alto riesgo: a partir del 2 de agosto de 2027. 3 CONTEXTO Y PLAZOS P, 2, 1: el 2 de agosto entra en vigor el Reglamento Europeo de IA
Enfoque de riesgo basado en valores
La traducción de los términos de excelencia y confianza a la letra de la ley se materializa en cuatro niveles de riesgo en la aplicación de los sistemas de IA que, a su vez, llevan implícitos, para su cumplimiento una serie de obligaciones y responsabilidades concretas para todos los actores implicados en la producción, comercialización, representación, uso y vigilancia de los sistemas de IA.
- Acción y supervisión humana: los sistemas de IA se desarrollan y utilizan como herramienta al servicio de las personas, respetan la dignidad humana y la autonomía personal, y que funcionan de manera que pueda ser controlada y vigilada adecuadamente por seres humanos.
- Solidez técnica y seguridad: deben ser sólidos en caso de que surjan problemas y resilientes frente a los intentos de alterar el uso o el funcionamiento del sistema de IA para evitar su uso ilícito por terceros y reducir al mínimo los daños no deseados.
- Gestión de la privacidad y de los datos: deben usarse de conformidad con la normativa en materia de protección de la intimidad y de los datos, al tiempo que tienen que tiene que tratar los datos cumpliendo normas estrictas en términos de calidad e integridad.
- Transparencia: deben permitir una trazabilidad y explicabilidad adecuadas, que, al mismo tiempo, haga que las personas sean conscientes de que se comunican o interactúan con un sistema de IA e informe debidamente a los responsables del despliegue acerca de las capacidades y limitaciones de dicho sistema de IA y a las personas afectadas acerca de sus derechos.
- Diversidad, no discriminación y equidad: los desarrollos de IA tienen que promover la igualdad de acceso y género y la diversidad cultural, al tiempo que se evitan los efectos discriminatorios y los sesgos injustos prohibidos por el derecho nacional o de la UE.
- Bienestar social y ambiental: su uso debe ser sostenible y respetuoso con el medio ambiente, así como en beneficio de todos los seres humanos.
- Rendición de cuentas: debe existir una supervisión y evaluación de los efectos a largo plazo en las personas, la sociedad y la democracia.
Ámbito laboral y de recursos humanos
En materia laboral el planteamiento es claro. El RIA advierte que el uso de IA aplicada a procesos de recursos humanos puede perpetuar patrones históricos de discriminación, por ejemplo contra las mujeres, determinados grupos de edad, las personas con discapacidad o las personas de orígenes raciales o étnicos concretos o con una orientación sexual determinada, durante todo el proceso de contratación y en la evaluación, promoción o retención de personas en las relaciones contractuales de índole laboral.
En el caso del reconocimiento de emociones en el lugar de trabajo, se prohíbe la puesta en marcha y el uso de sistemas de IA destinados a detectar el estado emocional de las personas en situaciones relacionadas con el lugar de trabajo y el ámbito educativo. Esto no aplica a los sistemas de IA introducidos utilizados exclusivamente con fines médicos o de seguridad, como los sistemas destinados a un uso terapéutico.
Estas garantías que establece el RIA no supondrán nunca una delegación plena en la máquina ni en la inteligencia artificial: “Siempre será necesaria la supervisión humana y en el caso de que se cometan errores o supuestos de discriminación, las personas afectadas podrán acudir a alguien dentro de la empresa con competencia y formación para que revise esas decisiones”, matiza, Ana B. Muñoz, profesora titular de Derecho del Trabajo y Seguridad Social de la UC3M. Esto es porque la empresa debe asegurarse de que todos los servicios de IA cumplan el Reglamento de Inteligencia Artificial europeo (José Domínguez, miembro del Consejo Asesor de IA+Igual).
Uno de los aspectos más destacados del RIA es el sistema de garantías que establece para proteger los derechos de los trabajadores. En esta línea, clasifica de alto riesgo los sistemas de IA que se utilizan en los ámbitos del empleo, la gestión de los trabajadores y el acceso al autoempleo, en particular los relativos a los procesos de:
- Contratación y la selección de personal.
- Toma de decisiones que afecten a las condiciones de las relaciones de índole laboral.
- Promoción y la rescisión de relaciones contractuales de índole laboral.
- Asignación de tareas a partir de comportamientos individuales o rasgos o características personales.
- Supervisión o evaluación de las personas en el marco de las relaciones contractuales de índole laboral, dado que pueden afectar de un modo considerable a las futuras perspectivas laborales, a los medios de subsistencia de dichas personas y a los derechos de los trabajadores.
Hacia una regulación global
La Unión Europea suscribió la semana pasada el Convenio Marco del Consejo de Europa sobre Inteligencia Artificial (IA) y derechos humanos, democracia y Estado de Derecho, el primer reglamento integral sobre estos asuntos, jurídicamente vinculante a nivel mundial.
En línea con el RIA y con otras normativas comunitarias, leyes del club comunitario, desde que arrancaran las negociaciones en septiembre de 202 han participado en su redacción los 46 estados miembros del Consejo de Europa, la Unión Europea y 11 estados no miembros (Argentina, Australia, Canadá, Costa Rica, Santa Sede, Israel, Japón, México, Perú, Estados Unidos de América y Uruguay), así como representantes del sector privado, la sociedad civil y el sector académico, algunos de los cuales adoptaron la posición de observadores.
Al igual que con el Reglamento Europeo de Inteligencia Artificial, adopta un enfoque basado en el riesgo para el diseño, desarrollo y uso de los sistemas de IA. En concreto, el documento regula el uso de sistemas de IA tanto en sectores públicos como privados, ofreciendo opciones para que los estados cumplan con las obligaciones descritas alrededor de esta tecnología, respetando los sistemas legales y compromisos internacionales con la democracia y el estado de derecho.
En el caso del Convenio Marco del Consejo de Europa sobre Inteligencia Artificial (IA) Este documento establece un marco legal que afecta a todo el ciclo de vida de los sistemas de IA, así como a los desafíos asociados, a la vez que promueve una innovación responsable en línea con el rápido avance tecnológico. La relevancia de este tratado recae en el que es el primero que actúa de forma internacional (ya que está abierto a países no europeos) que es jurídicamente vinculante.