Obligaciones para proveedores y empresas que usen IA de alto riesgo en el ámbito laboral

Maite Sáenz14 mayo 20245min
Servicio de Estudios de UGT.- En nuestro ordenamiento jurídico, la normativa vigente regula fundamentalmente la obligación empresarial de información algorítmica, tanto desde la perspectiva individual, como desde la colectiva. La transparencia algorítmica se refiere a la capacidad de entender cómo un algoritmo toma decisiones. En el contexto de la distribución de tareas, la transparencia algorítmica es crucial para garantizar que las personas trabajadoras sean tratadas de manera justa y que no se produzcan discriminaciones o sesgos inadvertidos. En síntesis, la transparencia algorítmica es esencial para la equidad en el lugar de trabajo y para la confianza de las personas trabajadoras en el sistema.

 

El Reglamento Europeo de Inteligencia Artificial parte de una aproximación a ésta basada en el riesgo que representa para las personas, los colectivos y las organizaciones. Así, califica a la IA en cuatro subtipos, según el riesgo que implica:

  1. mínimo o nulo;
  2. limitado;
  3. alto riesgo
  4. y riesgo inaceptable o de uso prohibido.

Es muy importante tener en cuenta desde un primer momento que las actividades relacionadas con el empleo están situadas en niveles prohibidos o de alto riesgo.

Todas las empresas y empleadores que decidan desplegar IA de alto riesgo deberán cumplir las obligaciones antedichas, “a lo largo de toda la cadena de valor” y otras que se resumen en:

  • Información previa a la representación de las personas trabajadoras y las personas trabajadoras afectadas.
  • Garantizar la supervisión humana.
  • Marcado CE de la IA de Alto Riesgo.
  • Asunción de responsabilidades en toda la cadena de valor.
  • Registro de las IA laborales.
  • Transparencia e información cuando se interactúa con una IA.
  • Vigilancia pos-comercialización.

Todas las empresas/empleadores que desplieguen AI de alto riesgo deberán informar a la RLT y las personas trabajadoras antes de su implantación y puesta en producción, respetando en todo caso los cauces de información y consulta estipulados en el convenio de aplicación o el ET, en su defecto. Por si esto no quedase suficientemente claro, el art. 26.11 RIA confirma que “los responsables del despliegue de los sistemas de IA de alto riesgo […] que tomen decisiones o ayuden a tomar decisiones relacionadas con personas físicas informarán a las personas físicas de que están expuestas a la utilización de los sistemas de IA de alto riesgo”.

La supervisión humana es un elemento clave para garantizar una IA fiable. En consecuencia, se obliga a las empresas y empleadoras que usen una IA de Alto Riesgo a garantizar que tal supervisión se realiza por personas físicas que tengan la competencia, la formación y la autoridad necesarias, con un nivel adecuado de alfabetización que le permita desempeñar adecuadamente dichas tareas:

  • Artículos 8,16 y 25 y Considerandos 84 y 91.
  • Artículo 26.
  • En el mismo sentido argumenta el considerando 92.
  • Artículo 26
  • Considerando 91.

 

El marcado CE es una fórmula conocida en toda Europa -por ejemplo, en maquinaria- que acredita visualmente la conformidad de dicho producto con las normas europeas. Tal exigencia es igualmente aplicable a la IA de Alto Riesgo, realizándose tal identificación o física o digitalmente, en todo caso “se colocará de manera visible, legible e indeleble en los sistemas de IA de alto riesgo”.

Igualmente, y antes de poner en servicio una IA laboral, todos los empleadores/empresas deberán registrar dicha IA en una base de datos de la UE, indicando que es una IA bajo su responsabilidad. Esta base de datos se regula en el art. 71 RIA y, en un principio, solo será accesible por las autoridades de vigilancia, salvo que el proveedor dé un consentimiento de acceso.

La persona trabajadora debe saber siempre si está interactuando con una IA (art. 50 RIA y considerando 132) y dicha obligación de transparencia recae sobre las empresas/empleadores y proveedores de IA. Igualmente, “procede exigir a los proveedores de tales sistemas que integren soluciones técnicas que permitan marcar, en un formato legible por máquina, y detectar que el resultado ha sido generado o manipulado por un sistema de IA y no por un ser humano”.

Finalmente, cabe recordar que tendrán que confeccionar un sistema de vigilancia de estos sistemas de IA laboral una vez puestos en servicio, con el fin de posibilitar la realización de correcciones en caso de un mal funcionamiento.

Nota: Extracto del informe «Reglamento Europeo de Inteligencia Artificial. Una mirada accesible a su vertiente laboral». Servicio de Estudios de UGT, 2024.


Observatorio de Recursos Humanos

ORH | Observatorio de Recursos Humanos

Desde 2006 trabajamos para ofrecer contenidos e información de valor para el profesional de la gestión de RRHH, con el convencimiento de que el conocimiento, en sus vertientes de creatividad, innovación y aprendizaje continuo, es el principal valor de una dirección eficaz.



Contacta con nosotros


Nuestros Otros Proyectos


Suscríbete al boletín

* campos obligatorios
Acepto las condiciones de uso y la política de privacidad


Síguenos en Redes Sociales