Hoy en día en las organizaciones se habla de Inteligencia Artificial (IA), de distintos modelos, de qué herramientas elegir para usarla, de su impacto en la productividad, etc., pero hay otra conversación, mucho más silenciosa y probablemente más determinante, que se está desarrollando en paralelo. Me refiero a cómo la IA está cambiando la forma en la que las personas aprenden, trabajan y toman decisiones dentro de las organizaciones.
En esta última conversación, el mayor riesgo no es técnico, es cultural. Independientemente de que exista una estrategia formal, la IA ya forma parte del día a día de muchos empleados que la usan para redactar documentos, analizar información o preparar presentaciones. En definitiva, lo hacen para trabajar mejor, reducir carga operativa y ser más eficientes.
Shadow AI
Este fenómeno, denominado Shadow AI, surge como una iniciativa de los empleados de una organización, pero el problema es que no está circunscrita dentro de un marco organizativo, lo que genera una paradoja: la empresa adopta IA, sí, pero sin aprender realmente a usarla como organización.
El diagnóstico El conocimiento que no se ve y se pierde
Uno de los efectos más invisibles de esta adopción desestructurada es la aparición de lo que llamamos silos cognitivos. Cada empleado que aprende a usar IA desarrolla conocimiento valioso: cómo formular un prompt, cómo interpretar respuestas, cómo integrar resultados en su trabajo diario. Pero ese conocimiento al que acabo de hacer referencia rara vez se comparte. No hay espacios, incentivos ni mecanismos para hacerlo, y la consecuencia es que la organización no aprende como sistema, aunque sus individuos sí lo hagan. Y ese es un problema estratégico porque el verdadero valor de la IA no está en que muchas personas la utilicen, sino en que la organización convierta ese uso en un aprendizaje colectivo.
El verdadero valor de la IA no está en que muchas personas la utilicen, sino en que la organización convierta ese uso en un aprendizaje colectivo.
La deriva El riesgo que nadie mide: la erosión cultural
Cuando la IA se introduce sin un marco claro empieza a influir en decisiones, comunicaciones y procesos sin estar alineada con la cultura corporativa. Las herramientas no conocen los valores de la organización, ni su tono, ni sus criterios internos. Y sin una guía clara, los resultados que generan pueden empezar a divergir gradualmente de esa identidad.
No se trata de un cambio brusco, sino de una deriva y, con el tiempo, la organización puede encontrarse tomando decisiones asistidas por IA que no reflejan quién es ni cómo quiere operar. Este es un riesgo difícil de cuantificar, pero profundo en sus implicaciones.
La alternativa Gobernanza no es control, es desarrollo del talento
Ante este escenario, la reacción más común suele ser restrictiva y consiste en limitar o prohibir el uso de IA. Sin embargo, esa aproximación ignora una realidad clave que es que las personas ya están utilizando estas herramientas porque les aportan valor.
La alternativa no es controlar más, sino desarrollar el talento y hacerlo bajo un marco claro de uso: qué herramientas están permitidas, para qué fines, con qué datos y con qué criterios. Pero también implica algo más importante como es crear espacios donde el aprendizaje se comparta y se convierta en un activo organizacional.
En este contexto, la gobernanza de la IA no es un mecanismo de control, sino un sistema de capacitación del talento. Y si hay una función con un rol central en este proceso, es Recursos Humanos porque lo que está en juego no es solo la adopción de una tecnología, sino la capacidad de la organización para aprender de forma diferente.
Esto implica repensar varios elementos clave
Gestión del conocimiento
Empezando por la gestión del conocimiento: cómo capturar y compartir lo que las personas aprenden al usar IA.
Incentivos y capacidades
Continuando con el diseño de incentivos para fomentar que ese conocimiento se comparta y el desarrollo de capacidades para formar no solo en herramientas, sino en criterio.
Gestión del cambio
Y, por supuesto, culminando en la gestión del cambio y el abordaje de percepciones de riesgo, sustitución o pérdida de valor.
Uno de los errores más frecuentes es tratar la IA como un tema de formación puntual, ya que es un proceso continuo de adaptación organizativa. La diferencia entre una empresa que «usa IA» y una que «sabe usar IA» no está en el número de licencias activas, sino en si ha sido capaz de convertir el aprendizaje individual en capacidad colectiva.
La diferencia entre una empresa que «usa IA» y una que «sabe usar IA» no está en el número de licencias activas, sino en si ha sido capaz de convertir el aprendizaje individual en capacidad colectiva.
Eso requiere intención, diseño y liderazgo e implica crear canales donde las personas puedan compartir lo que descubren, reconocer a quienes contribuyen a ese conocimiento y construir sistemas que permitan reutilizarlo. En otras palabras, implica tratar el conocimiento generado con IA como lo que es: un activo estratégico.
El cruce de caminos Oportunidad y responsabilidad
La IA tiene el potencial de aumentar la productividad y la capacidad de decisión de las organizaciones, pero ese potencial no se materializa de forma automática, depende de cómo se integre en la cultura, en los procesos y en la forma de trabajar de las personas. Y aquí es donde muchas organizaciones se encuentran en un cruce de caminos. Pueden permitir que la IA se desarrolle de forma descoordinada, generando riesgos y perdiendo aprendizaje, o pueden convertirla en una palanca de desarrollo organizativo.
Más allá de las herramientas y los casos de uso, hay una pregunta que los responsables de personas y gestión del talento deberían hacerse hoy:
¿Qué sabe sobre IA tu mejor empleado que el resto de la organización no sabe?
Y, sobre todo: ¿Qué estás haciendo para que ese conocimiento no desaparezca con él?
En la respuesta a esa pregunta está la clave de la adopción de la IA y la ventaja competitiva.