SteveCadigan
Ex-VP de Talento Global · LinkedIn
«Si nuestras personas no están creciendo al mismo ritmo que lo hace nuestra tecnología, tenemos un riesgo estratégico, no solo un problema de talento»
Automatiza, sin duda, pero también deja de formar -nada más y nada menos- que en juicio, criterio y liderazgo. Por eso, Steve Cadigan, ex-VP de Talento Global de LinkedIn, defiende que invertir solo en tecnología -y en concreto, IA- mientras se descuida el desarrollo humano no es eficiencia sino riesgo estratégico.
En esta parte
Aprendizaje, ventaja humana y responsabilidad corporativa
En esta segunda parte de la entrevista que le hemos realizado, cuestiona las prácticas y supuestos que hasta ahora guiaban el aprendizaje y la progresión profesional, y plantea cómo repensar métricas, experiencias profesionales y diseño de puestos para que la organización no levante castillos de automatización sobre talento en demolición.
ORH pregunta
Históricamente, el aprendizaje en las primeras etapas de la carrera se basaba en repetición y volumen de tareas. Si muchas de esas tareas quedan ahora en manos de la IA, ¿dónde y cómo se ha de articular el aprendizaje? ¿Necesitamos nuevos modelos de aprendizaje corporativo?
Sí, necesitamos nuevos modelos, y también los necesitábamos ayer. El modelo tradicional de aprendizaje se ha basado en volumen: realizar suficientes repeticiones, cometer suficientes errores, recibir suficiente retroalimentación y, con el tiempo, desarrollar criterio. La IA está reduciendo o eliminando ese volumen; por lo tanto, necesitamos encontrar nuevos mecanismos para desarrollar el juicio sin depender del mismo nivel de repetición de tareas.
Algunos enfoques que considero muy prometedores son la simulación deliberada y el aprendizaje basado en escenarios, las prácticas de reflexión estructurada —donde los empleados jóvenes analizan críticamente los resultados de la IA—, las relaciones de mentoría centradas explícitamente en el desarrollo del criterio en lugar de la transferencia de tareas, y la exposición interfuncional que fomenta el pensamiento sistémico desde el inicio.
El cambio más profundo que se requiere reside en cómo definimos el aprendizaje en sí mismo. El aprendizaje ya no puede ser un subproducto de la realización de tareas; debe convertirse en una prioridad explícita, diseñada y medida, lo que significa que las organizaciones deben invertir en él con la misma seriedad con la que invierten en infraestructura tecnológica.
El aprendizaje ya no puede ser un subproducto de la realización de tareas. Debe convertirse en una prioridad explícita, diseñada y medida, con la misma seriedad con la que se invierte en infraestructura tecnológica.
ORH pregunta
En un mundo donde las máquinas hacen más y los humanos deben aprender más rápido, ¿cuáles serían los peldaños de la nueva escalera profesional? ¿Cómo debería estructurarse la progresión desde el primer año hasta roles de liderazgo?
Probablemente el propio concepto de «escalera profesional» necesite actualizarse. La progresión profesional en la era de la IA se parecerá menos a ascender por una estructura fija y más a ampliar círculos de juicio y responsabilidad. Esta será una transición difícil porque el concepto de «escalera profesional» sigue muy arraigado en la forma en que muchos padres y docentes educan a los jóvenes. Etapas de la progresión profesional:
Año 1
Capacidades fundamentales irreplicables
Pensamiento crítico, comunicación, razonamiento ético y la capacidad de formular las preguntas correctas.
Años 2–4
Dominio y fluidez interfuncional
Comprender cómo se conectan las partes de la organización y dónde los resultados de la IA requieren interpretación humana.
Mitad de carrera
Pensamiento sistémico y diseño humano-IA
Liderazgo de stakeholders y capacidad de diseñar flujos de trabajo humano-IA, no solo operar dentro de ellos.
Liderazgo senior
Habilitar, no saber más que nadie
Permitir que humanos y sistemas de IA rindan al máximo. El hilo conductor: juicio, responsabilidad y generación de confianza.
ORH pregunta
Defiende el concepto de «ventaja humana» frente a la IA. ¿A qué se refiere exactamente? ¿Cuáles son las capacidades críticas en la era de la IA y cómo deberían cultivarse deliberadamente?
La ventaja humana es el conjunto de capacidades que se vuelven más valiosas, no menos, a medida que la IA se vuelve más capaz y poderosa. Paradójicamente, cuanto más eficaz se vuelve la IA al procesar información y generar contenido, más valiosas se vuelven las cualidades humanas distintivas. Hablamos de la empatía, el juicio ético, la creatividad y el liderazgo relacional.
Estas no son habilidades blandas; son las habilidades más difíciles de desarrollar y las más difíciles de replicar. Cultivarlas desde el primer día significa diseñar experiencias profesionales tempranas que coloquen a los profesionales jóvenes en situaciones que requieran juicio e interacción humana, y no solo completar tareas. También significa evaluar a las personas por cómo piensan y cómo se relacionan, no solo por lo que producen.
Por último, la habilidad más importante que ayudo a muchos líderes a desarrollar hoy en día es la capacidad de navegar por la complejidad, las contradicciones y el desacuerdo. El mundo laboral es un mundo de grises, y la capacidad para desenvolverse bien en este espacio será cada vez más crítica.
Empatía
La capacidad de comprender lo que otra persona está experimentando y responder de una manera que genere confianza.
Juicio ético
Entender no solo lo que puede hacerse, sino lo que debe hacerse y por qué. Una distinción que la IA no puede resolver.
Creatividad
La capacidad de replantear problemas, establecer conexiones inesperadas e imaginar lo que aún no existe.
Liderazgo relacional
La capacidad de inspirar, alinear y sacar lo mejor de otras personas. Imposible de automatizar.
ORH pregunta
Propone medir el progreso tecnológico mediante capacidades humanas ampliadas, y no por tareas eliminadas. ¿Cómo podrían los CHRO incorporar esta métrica en KPI y en conversaciones estratégicas sin perder foco en resultados?
La clave está en desarrollar un sistema de medición paralelo que rastree la expansión de la capacidad junto con las métricas tradicionales de productividad. ¿Qué KPI concretos propondía como CRHO?.
% de empleados que han ampliado de forma demostrable su ámbito de trabajo durante el último año
Tasas de movilidad interna como indicador del aumento de la versatilidad organizativa
Producción aumentada por IA por empleado a lo largo del tiempo
Profundidad del pipeline de liderazgo en cada nivel de la organización
Estas no son métricas blandas; pueden cuantificarse, rastrearse y vincularse con resultados de negocio. El marco de conversación estratégica que usaría con un CEO o CFO: «Todas las métricas que analizamos para medir el rendimiento de las máquinas también deberían utilizarse para medir el rendimiento humano. Si nuestras personas no están creciendo al mismo ritmo que lo hace nuestra tecnología, tenemos un riesgo estratégico, no solo un problema de talento.» Una vez que la expansión de capacidades se convierte en una conversación con números en la sala del Consejo, deja de ser una prioridad de RR.HH. y pasa a ser una prioridad empresarial.
ORH pregunta
Describe, en un reciente ensayo, un riesgo: un futuro donde la tecnología avanza mientras el trabajador se queda obsoleto. ¿Qué tendría que ocurrir —en diseño organizacional, liderazgo, cultura— para que la IA acelere el desarrollo humano en lugar de erosionarlo?
Primero demos un paso atrás y reconozcamos algo evidente: estamos viviendo un momento en el que todos sabemos que necesitamos aprender más y más rápido que en cualquier otro momento de la historia. El sistema en el que vivimos no fue diseñado para generar habilidades al ritmo que ahora necesitamos. Estamos haciendo un trabajo extraordinario desarrollando nueva tecnología, pero no estamos haciendo un buen trabajo desarrollando las capacidades necesarias en las personas para utilizarla.
Por eso planteo que el aprendizaje debe producirse en el propio trabajo y no en un aula de formación en la empresa. Es el trabajo el que debe estar lleno de nuevas experiencias, nuevas tareas y proyectos, no el aula.
El componente cultural suele subestimarse y el miedo a quedarse obsoleto es real. Si las organizaciones no crean entornos donde las personas puedan desarrollar nuevas capacidades sin vergüenza ni castigo durante la curva de aprendizaje, los empleados dejarán de implicarse en su propio desarrollo. La velocidad de la IA exige una cultura de crecimiento permanente, apoyado y celebrado. Por último siempre digo algo que hoy es más cierto que nunca: el talento es más leal al crecimiento que a la empresa. Si se le proporciona aprendizaje y oportunidades de desarrollo, es mucho más probable que se quede.
Las organizaciones que lo harán bien comparten tres características
01
Tratan el aprendizaje como infraestructura
No como una partida presupuestaria que se recorta en una crisis, sino como una capacidad operativa central, tan esencial como su stack tecnológico.
02
Diseñan puestos pensando en el desarrollo humano
Preguntando por cada rol: ¿qué aprenderá esta persona aquí y qué tipo de criterio desarrollará?, no solo qué tareas ejecutará.
03
Los líderes modelan el aprendizaje continuo
Una cultura donde el CEO aprende, experimenta y reconoce abiertamente lo que aún no sabe genera seguridad psicológica para crecer en todos los niveles.
ORH pregunta
Advierte del peligro de trasladar el impacto laboral de la IA desde las empresas —donde el trabajo se diseña— hacia la sociedad. ¿Qué responsabilidad concreta deberían asumir las compañías en esta transición?
Las empresas no pueden externalizar el coste humano de sus decisiones de automatización y llamarlo progreso. Cuando un Consejo decide eliminar una categoría de puestos, las personas afectadas no desaparecen; entran en el mercado laboral, en el sistema de protección social o en situaciones aún peores. El coste es real; simplemente se ha transferido a otra parte.
Es por ello que tanto estratégica como éticamente, las empresas tienen la obligación de hacer que la transición sea visible y planificada, no abrupta e invisible. Hay una serie de preguntas que los Consejos deberían estar haciéndose hoy. Y no hablo de preguntas de caridad; son preguntas de gestión del riesgo. Las empresas que gestionen mal esta transición enfrentarán reacción regulatoria, daño reputacional y problemas en el mercado de talento. Las que lo gestionen bien construirán la confianza y la legitimidad social de las que dependen los negocios sostenibles.
Preguntas que hoy deberían hacerse los consejos de administración
- ¿Cuál es nuestro plan para recualificar a los empleados desplazados, no solo para recolocarlos?
- ¿Estamos diseñando la integración de la IA para ampliar los roles antes de considerar eliminarlos?
- ¿Cuál es nuestro compromiso con las comunidades donde somos un empleador relevante?
- ¿Estamos colaborando con instituciones educativas para configurar la cantera de talento que necesitaremos en cinco años?
ORH pregunta
Es muy crítico con muchos líderes de IA: brillantes en la creación de producto pero sin experiencia en la creación de empresas. ¿Cómo se puede transformar su mentalidad centrada en eficiencia material hacia una visión más sistémica y humana del progreso?
Este es un desafío realmente difícil, porque el cambio de mentalidad a ese nivel rara vez surge solo de argumentos; suele venir de la experiencia, las relaciones y, a veces, del fracaso. El camino más prometedor que veo es la fricción: cuando los líderes de IA se enfrentan directamente a las consecuencias humanas de decisiones tomadas desde la abstracción, algo empieza a cambiar.
Por eso es tan importante la diversidad de experiencias en los equipos de directivos. Un equipo que incluya personas que han trabajado en comunidades afectadas por la automatización, que han gestionado a personas en procesos de transformación organizativa o que han construido instituciones —no solo productos— tomará decisiones diferentes.
El otro factor clave es la rendición de cuentas. Inversores, reguladores y cada vez más clientes están empezando a exigir que el progreso se mida en términos humanos, no solo técnicos. No ocurrirá tan rápido como me gustaría, pero creo que ocurrirá.
Cuando los líderes de IA se enfrentan directamente a las consecuencias humanas de decisiones tomadas desde la abstracción, algo empieza a cambiar. La fricción, no los argumentos, es el catalizador.
ORH pregunta
De cara a los próximos diez años, ¿qué decisión tomada hoy cree que marcará la diferencia entre una economía más avanzada y una economía más frágil?
Si decidimos invertir en las personas al mismo ritmo y con la misma ambición que en tecnología. Eso es todo. De esa decisión se derivan todas las demás.
Si las organizaciones, los gobiernos y las instituciones educativas deciden colectivamente que el desarrollo humano es tan importante estratégicamente como el desarrollo de la IA, y respaldan esa decisión con recursos, métricas y liderazgo, podremos atravesar esta transición y construir una economía genuinamente más capaz y resiliente.
Si no lo hacemos, construiremos tecnologías extraordinariamente poderosas operadas por una fuerza laboral cada vez menos preparada, menos valorada y más desconectada. La fragilidad resultante no será un fracaso tecnológico sino un fracaso humano. La decisión está a nuestra disposición ahora mismo: en cada contratación, en cada asignación presupuestaria y en cada conversación en el consejo de administración sobre qué significa realmente el progreso.
Ahora es el momento de decidir si invertir en las personas con la misma ambición que en tecnología. Si no lo hacemos, la fragilidad resultante no será un fracaso tecnológico sino humano
SteveCadigan
Ex-VP de Talento Global · LinkedIn