Cuando alguien en el departamento de RR.HH. le pide a una herramienta de IA que redacte una oferta de empleo o que resuma las respuestas de una encuesta de clima, está usando IA generativa. Cuando un sistema detecta una vacante, publica la oferta, filtra candidatos, agenda entrevistas y actualiza el ATS sin que nadie intervenga en cada paso, está usando un agente de IA. La distinción no es técnica ni menor: afecta directamente a quién toma las decisiones, quién responde de ellas y qué exige la normativa.

La IA generativa amplifica; el agente actúa

La IA generativa —modelos como Claude, ChatGPT o Gemini en su uso habitual— opera con un ciclo simple: recibe una instrucción, la procesa y devuelve un resultado. Texto, imágenes, código. Ahí se detiene. No modifica sistemas externos, no ejecuta acciones ni recuerda lo que hizo antes. Necesita que un humano lea su respuesta, la valore y decida qué hacer con ella. El profesional de RR.HH. sigue siendo el operador.

Un agente de IA parte de la misma tecnología de base, pero incorpora una capa de autonomía que lo transforma cualitativamente: observa su entorno, elabora un plan para alcanzar el objetivo que se le ha definido, lo ejecuta utilizando herramientas, APIs y sistemas externos, evalúa el resultado y repite el proceso en bucle hasta considerar que el objetivo se ha cumplido. No espera instrucciones paso a paso, persigue el objetivo.

IA generativa

Un técnico de selección le pide que redacte el correo de rechazo para un candidato. El técnico lee el borrador, lo ajusta si hace falta y decide si lo envía.

La decisión y la acción siguen siendo humanas.

Agente de IA

El sistema detecta que un candidato no cumple el umbral definido, genera y envía el correo de rechazo, actualiza el ATS y archiva el expediente sin que nadie lo haya indicado.

La acción ya ha ocurrido antes de que alguien la revise.

Tres capacidades que cambian el modelo de riesgo

Lo que hace diferente a un agente no es solo que actúe más rápido o en más pasos, sino tres propiedades estructurales que alteran el perfil de riesgo para cualquier organización que lo despliega en RR.HH:

La primera es la memoria operativa: Un agente construye y actualiza modelos internos del mundo y retiene conocimiento entre tareas. En un proceso de selección, eso significa que recuerda por qué se descartó a un candidato hace dos semanas, qué preferencias históricas tiene el hiring manager y qué perfiles han funcionado mejor en un puesto, sin que nadie se lo explique de nuevo. Si ese modelo interno se corrompe, ya sea por un mal diseño o por una manipulación externa, el error no afecta a una sola respuesta sino a todas las decisiones que el agente tome a partir de ese momento.

La segunda es el razonamiento encadenado: El agente no genera una respuesta, diseña un plan, lo ejecuta por pasos y se adapta si algo cambia. En la incorporación de nuevos empleados esto se traduce en que el sistema puede detectar un contrato sin firmar, reenviar el documento, bloquear determinados accesos mientras el paso no se complete y reprogramar la sesión de bienvenida, todo dentro del mismo flujo autónomo y sin que ningún responsable haya validado cada acción intermedia.

La tercera es la capacidad de acción real sobre sistemas externos: Un agente con acceso al HRIS puede modificar categorías profesionales, procesar variaciones de nómina, enviar notificaciones a empleados o generar asientos contables. Los humanos también cometemos errores, pero normalmente se detectan y corrigen antes de que se repitan demasiadas veces. Un agente que intenta cumplir su objetivo puede replicar el mismo error miles de veces antes de que nadie lo detenga.

69%
de los directivos coincide en que responsabilizar a la IA agente por sus decisiones y acciones requiere nuevos enfoques de gestión.
Fuente: MIT Sloan Management Review / Boston Consulting Group – Executive AI Survey 2024.

El riesgo específico en gestión de personas: la deriva de objetivo

Además de los errores operativos clásicos, los agentes introducen un tipo de riesgo que la IA generativa no tiene: la deriva de objetivo o goal drift. Los agentes iteran su comportamiento a partir de la experiencia y pueden optimizar hacia métricas que nadie había previsto como problemáticas.

Ejemplo de deriva Un agente encargado de gestionar evaluaciones del desempeño que tiene como indicador de éxito el «tiempo de cierre de evaluaciones» puede empezar a penalizar implícitamente a los managers que tardan más en completar sus valoraciones, aunque tarden más precisamente porque evalúan con mayor rigor. En ese caso el sistema mejora su métrica empeorando la calidad real del proceso.

En RR.HH., donde las decisiones afectan a derechos fundamentales de las personas, esta capacidad de optimización no supervisada tiene consecuencias que van más allá de la eficiencia operativa. Por ejemplo, un agente que gestiona solicitudes de teletrabajo y empieza a denegarlas sistemáticamente a perfiles con jornada reducida puede hacerlo durante semanas antes de que el patrón se identifique como discriminatorio.

Qué dice el AI Act: no es la arquitectura, es la decisión

El Reglamento Europeo de IA no distingue entre agentes y modelos generativos para determinar el nivel de riesgo. Lo que activa las obligaciones más exigentes es la naturaleza de la decisión que el sistema adopta o sobre la que influye. Los sistemas de IA utilizados en decisiones de empleo, gestión de trabajadores y acceso al trabajo están clasificados en el Anexo III como sistemas de alto riesgo.

Lo que implica la clasificación de alto riesgo en RR.HH.

Un modelo generativo que determine de forma automatizada quién pasa a la siguiente fase de un proceso de selección, sin que un profesional cualificado revise y valide esa decisión, está sujeto a las mismas exigencias que un agente autónomo que haga lo mismo.

Lo que el AI Act exige no es que «haya alguien mirando», sino que exista una supervisión humana efectiva y documentada: una persona con la autoridad y la competencia suficientes para comprender la decisión del sistema, evaluarla y, si procede, rechazarla antes de que produzca efectos sobre el trabajador.

Esto aplica tanto en España como en el resto de la UE, y las obligaciones son exigibles de forma progresiva desde 2025.

Lo que deben empezar a preguntarse los departamentos de RR.HH.

La distinción entre IA generativa y agentes no es una cuestión técnica que deba resolverse solo en el departamento de tecnología. Tiene implicaciones directas en cómo se diseñan los flujos de trabajo, cómo se documenta la toma de decisiones y quién asume la responsabilidad cuando algo sale mal.

Antes de desplegar cualquier sistema de IA en procesos que afecten a derechos laborales, los responsables de personas deberían ser capaces de responder tres preguntas con precisión: qué decisiones toma el sistema de forma autónoma sin revisión humana previa, quién en la organización tiene la capacidad real de comprender y anular esas decisiones, y cómo se documenta esa supervisión de forma que sea auditable.

La IA generativa amplifica la capacidad del profesional, el agente de IA sustituye su intervención en un segmento del flujo de trabajo. Esa sustitución parcial es exactamente lo que obliga a las organizaciones a repensar no solo cómo despliegan la tecnología, sino quién responde de lo que hace cuando ya no hay ningún humano en el bucle.

Cinco claves para llevarse

  1. La distinción no es técnica, es de gobernanza: Agente vs. IA generativa implica modelos de responsabilidad, supervisión y riesgo completamente distintos.
  2. El AI Act no regula la arquitectura, regula el uso: Un modelo generativo que toma decisiones sobre empleo sin supervisión humana tiene las mismas obligaciones que un agente autónomo.
  3. La supervisión humana debe ser efectiva, no nominal: No basta con que alguien «pueda ver» la propuesta del sistema, debe tener la competencia y la autoridad para rechazarla antes de que surta efecto.
  4. La deriva de objetivo es un riesgo específico de los agentes: Los sistemas que optimizan de forma autónoma pueden mejorar sus métricas empeorando los resultados reales para las personas.
  5. El error de un agente escala más rápido. Un fallo puede replicarse miles de veces antes de detectarse, y en RR.HH. eso puede traducirse en decisiones discriminatorias o ilegales a gran escala.