No toda la IA que llega a los departamentos de RR.HH. funciona igual ni comporta los mismos riesgos. La diferencia entre un sistema que sugiere y uno que actúa de forma autónoma tiene implicaciones directas en la toma de decisiones, la responsabilidad legal y el cumplimiento del AI Act europeo.
Cuando alguien en el departamento de RR.HH. le pide a una herramienta de IA que redacte una oferta de empleo o que resuma las respuestas de una encuesta de clima, está usando IA generativa. Cuando un sistema detecta una vacante, publica la oferta, filtra candidatos, agenda entrevistas y actualiza el ATS sin que nadie intervenga en cada paso, está usando un agente de IA. La distinción no es técnica ni menor: afecta directamente a quién toma las decisiones, quién responde de ellas y qué exige la normativa.
La IA generativa amplifica; el agente actúa
La IA generativa —modelos como Claude, ChatGPT o Gemini en su uso habitual— opera con un ciclo simple: recibe una instrucción, la procesa y devuelve un resultado. Texto, imágenes, código. Ahí se detiene. No modifica sistemas externos, no ejecuta acciones ni recuerda lo que hizo antes. Necesita que un humano lea su respuesta, la valore y decida qué hacer con ella. El profesional de RR.HH. sigue siendo el operador.
Un agente de IA parte de la misma tecnología de base, pero incorpora una capa de autonomía que lo transforma cualitativamente: observa su entorno, elabora un plan para alcanzar el objetivo que se le ha definido, lo ejecuta utilizando herramientas, APIs y sistemas externos, evalúa el resultado y repite el proceso en bucle hasta considerar que el objetivo se ha cumplido. No espera instrucciones paso a paso, persigue el objetivo.
Un técnico de selección le pide que redacte el correo de rechazo para un candidato. El técnico lee el borrador, lo ajusta si hace falta y decide si lo envía.
La decisión y la acción siguen siendo humanas.
El sistema detecta que un candidato no cumple el umbral definido, genera y envía el correo de rechazo, actualiza el ATS y archiva el expediente sin que nadie lo haya indicado.
La acción ya ha ocurrido antes de que alguien la revise.
Tres capacidades que cambian el modelo de riesgo
Lo que hace diferente a un agente no es solo que actúe más rápido o en más pasos, sino tres propiedades estructurales que alteran el perfil de riesgo para cualquier organización que lo despliega en RR.HH:
La primera es la memoria operativa: Un agente construye y actualiza modelos internos del mundo y retiene conocimiento entre tareas. En un proceso de selección, eso significa que recuerda por qué se descartó a un candidato hace dos semanas, qué preferencias históricas tiene el hiring manager y qué perfiles han funcionado mejor en un puesto, sin que nadie se lo explique de nuevo. Si ese modelo interno se corrompe, ya sea por un mal diseño o por una manipulación externa, el error no afecta a una sola respuesta sino a todas las decisiones que el agente tome a partir de ese momento.
La segunda es el razonamiento encadenado: El agente no genera una respuesta, diseña un plan, lo ejecuta por pasos y se adapta si algo cambia. En la incorporación de nuevos empleados esto se traduce en que el sistema puede detectar un contrato sin firmar, reenviar el documento, bloquear determinados accesos mientras el paso no se complete y reprogramar la sesión de bienvenida, todo dentro del mismo flujo autónomo y sin que ningún responsable haya validado cada acción intermedia.
La tercera es la capacidad de acción real sobre sistemas externos: Un agente con acceso al HRIS puede modificar categorías profesionales, procesar variaciones de nómina, enviar notificaciones a empleados o generar asientos contables. Los humanos también cometemos errores, pero normalmente se detectan y corrigen antes de que se repitan demasiadas veces. Un agente que intenta cumplir su objetivo puede replicar el mismo error miles de veces antes de que nadie lo detenga.
El riesgo específico en gestión de personas: la deriva de objetivo
Además de los errores operativos clásicos, los agentes introducen un tipo de riesgo que la IA generativa no tiene: la deriva de objetivo o goal drift. Los agentes iteran su comportamiento a partir de la experiencia y pueden optimizar hacia métricas que nadie había previsto como problemáticas.
En RR.HH., donde las decisiones afectan a derechos fundamentales de las personas, esta capacidad de optimización no supervisada tiene consecuencias que van más allá de la eficiencia operativa. Por ejemplo, un agente que gestiona solicitudes de teletrabajo y empieza a denegarlas sistemáticamente a perfiles con jornada reducida puede hacerlo durante semanas antes de que el patrón se identifique como discriminatorio.
Qué dice el AI Act: no es la arquitectura, es la decisión
El Reglamento Europeo de IA no distingue entre agentes y modelos generativos para determinar el nivel de riesgo. Lo que activa las obligaciones más exigentes es la naturaleza de la decisión que el sistema adopta o sobre la que influye. Los sistemas de IA utilizados en decisiones de empleo, gestión de trabajadores y acceso al trabajo están clasificados en el Anexo III como sistemas de alto riesgo.
Un modelo generativo que determine de forma automatizada quién pasa a la siguiente fase de un proceso de selección, sin que un profesional cualificado revise y valide esa decisión, está sujeto a las mismas exigencias que un agente autónomo que haga lo mismo.
Lo que el AI Act exige no es que «haya alguien mirando», sino que exista una supervisión humana efectiva y documentada: una persona con la autoridad y la competencia suficientes para comprender la decisión del sistema, evaluarla y, si procede, rechazarla antes de que produzca efectos sobre el trabajador.
Esto aplica tanto en España como en el resto de la UE, y las obligaciones son exigibles de forma progresiva desde 2025.
Lo que deben empezar a preguntarse los departamentos de RR.HH.
La distinción entre IA generativa y agentes no es una cuestión técnica que deba resolverse solo en el departamento de tecnología. Tiene implicaciones directas en cómo se diseñan los flujos de trabajo, cómo se documenta la toma de decisiones y quién asume la responsabilidad cuando algo sale mal.
Antes de desplegar cualquier sistema de IA en procesos que afecten a derechos laborales, los responsables de personas deberían ser capaces de responder tres preguntas con precisión: qué decisiones toma el sistema de forma autónoma sin revisión humana previa, quién en la organización tiene la capacidad real de comprender y anular esas decisiones, y cómo se documenta esa supervisión de forma que sea auditable.
La IA generativa amplifica la capacidad del profesional, el agente de IA sustituye su intervención en un segmento del flujo de trabajo. Esa sustitución parcial es exactamente lo que obliga a las organizaciones a repensar no solo cómo despliegan la tecnología, sino quién responde de lo que hace cuando ya no hay ningún humano en el bucle.
Cinco claves para llevarse
- La distinción no es técnica, es de gobernanza: Agente vs. IA generativa implica modelos de responsabilidad, supervisión y riesgo completamente distintos.
- El AI Act no regula la arquitectura, regula el uso: Un modelo generativo que toma decisiones sobre empleo sin supervisión humana tiene las mismas obligaciones que un agente autónomo.
- La supervisión humana debe ser efectiva, no nominal: No basta con que alguien «pueda ver» la propuesta del sistema, debe tener la competencia y la autoridad para rechazarla antes de que surta efecto.
- La deriva de objetivo es un riesgo específico de los agentes: Los sistemas que optimizan de forma autónoma pueden mejorar sus métricas empeorando los resultados reales para las personas.
- El error de un agente escala más rápido. Un fallo puede replicarse miles de veces antes de detectarse, y en RR.HH. eso puede traducirse en decisiones discriminatorias o ilegales a gran escala.
Agentes de IA vs. IA generativa
Diferencias clave en funcionamiento, riesgo y obligaciones regulatorias bajo el Reglamento Europeo de IA para su aplicación en gestión de personas.
| Dimensión | IA generativa(p.ej. Claude, ChatGPT, Gemini) | Agente de IA(sistemas autónomos multi-paso) |
|---|---|---|
| Funcionamiento | ||
| Ciclo de operación | Entrada → procesamiento → salida. Se detiene al generar la respuesta. | Observa entorno → planifica → actúa → evalúa → repite en bucle hasta alcanzar el objetivo. |
| Memoria | No retiene información entre sesiones. Parte de cero en cada conversación. | Construye y actualiza modelos internos. Recuerda contexto entre tareas.Recuerda por qué se descartó un candidato hace dos semanas sin que nadie se lo explique. |
| Capacidad de acción | Produce texto, imágenes o código. No modifica sistemas externos por sí solo. | Ejecuta acciones reales: actualiza el HRIS, envía notificaciones, agenda entrevistas, procesa nóminas.Detecta una baja, recalcula la nómina y notifica al empleado sin intervención humana. |
| Aplicación en RR.HH. | ||
| Selección | Redacta ofertas de empleo o borradores de correos a candidatos. El técnico decide antes de enviar |
Publica la oferta, filtra CVs, agenda entrevistas y actualiza el ATS de forma autónoma. Actúa sin revisión paso a paso |
| Evaluación del desempeño | Genera borradores de informes de evaluación o sugiere objetivos. El manager valida y firma |
Recopila datos de rendimiento, calcula puntuaciones y puede condicionar decisiones de bonus o promoción. La decisión puede ejecutarse sin revisión |
| Onboarding | Crea guías de bienvenida, documentos de acogida o planes de formación personalizados. | Detecta contrato no firmado, reenvía documento, bloquea accesos pendientes y reprograma sesión de bienvenida de forma autónoma. |
| Gestión de bajas y ausencias | Redacta comunicaciones sobre políticas de ausencias o responde dudas frecuentes. | Detecta patrón de absentismo, activa protocolo, genera notificación y puede escalar a inspección médica sin intervención del responsable. |
| Riesgo y regulación (AI Act) | ||
| Clasificación de riesgo | Modelo de propósito general (GPAI). Obligaciones recaen sobre el proveedor (Anthropic, OpenAI…). Riesgo variable según uso |
Sistema de alto riesgo si interviene en decisiones de empleo (Anexo III AI Act). Alto riesgo por defecto en RR.HH. |
| Lo que determina el riesgo | No es la arquitectura técnica (agente vs. generativo), sino la naturaleza de la decisión. Un uso de IA generativa que determine quién pasa a una siguiente fase de selección sin revisión humana es igualmente de alto riesgo. | |
| Supervisión humana | El humano revisa la salida antes de usarla. La supervisión es natural al flujo de trabajo. Cumplimiento más sencillo |
La norma exige supervisión humana efectiva y documentada, no nominal. El responsable debe poder comprender, revisar y anular la decisión antes de que surta efecto. Requiere diseño específico de gobernanza |
| Tipo de error típico | Error visible antes de causar daño. El técnico de RR.HH. lo detecta al leer la propuesta. | El error puede ejecutarse cientos de veces antes de detectarse.Un agente que deniega sistemáticamente teletrabajo a jornadas reducidas puede hacerlo durante semanas. |
| Deriva de objetivo (goal drift) | No aplica: no tiene objetivos propios ni optimiza de forma autónoma. | Puede optimizar hacia métricas no previstas.Un agente que optimiza «tiempo de cierre de evaluaciones» puede penalizar a managers que evalúan con más rigor. |
Fuentes:
- Reglamento (UE) 2024/1689 de IA (AI Act), Anexo III.
- MIT Sloan Management Review / Boston Consulting Group, Executive AI Survey 2024.