Una hoja de ruta para gestionar los riesgos de la IA generativa

Redacción ORH4 junio 202416min
La IA generativa (IAGen) tiene el potencial de redefinir la forma en que las personas trabajan y viven. Pero este potencial conlleva riesgos que van desde la preocupación por la integridad de los datos de entrenamiento hasta la posibilidad de generar resultados imprecisos o no éticos. Estas son algunas recomendaciones para definir una hoja de ruta que le permita aprovechar el potencial de esta tecnología y transformar la innovación, el crecimiento y la productividad en su organización.

 

Los estudios de McKinsey estiman que la IA generativa puede incrementar hasta en 4,4 billones de dólares el valor económico mundial y aumentar el impacto de toda la IA entre un 15% y un 40%. Pero este increíble potencial va acompañado de riesgos significativos. Así, mientras el 63% de las grandes compañías multinacionales califican la implantación de la IAG como una prioridad «alta» o «muy alta», el 91% reconoce que no se sienten preparados para hacerlo de forma responsable.

Esta inquietud es comprensible. Los riesgos asociados a la IAGen van desde la inexactitud de los resultados y los sesgos integrados en los datos de entrenamiento subyacentes, hasta el potencial de desinformación a gran escala y la influencia maliciosa en la política y el bienestar personal. También hay debates más amplios sobre la posibilidad y la conveniencia de desarrollar la IA.

Estas cuestiones podrían detener el proceso de digitalización hasta que se comprendan mejor los riesgos, o incluso quitar prioridad a las inversiones en IA ante la incapacidad de gestionar la novedad y la complejidad de estas cuestiones adecuadamente.

 

Y aquí está el problema. Mientras el entorno normativo sobre IA sigue evolucionando y se mantiene el estado de inseguridad y desconocimiento, es probable que la mayoría de las organizaciones vean cómo el uso de la IA generativa aumenta las amenazas «entrantes» (riesgos que probablemente afecten a las organizaciones independientemente de que desplieguen o no IA generativa), sobre todo en los ámbitos del fraude y la cibernética.

 

En términos prácticos, las empresas que deseen abordar el riesgo de la IA gen deben seguir cuatro pasos. Los detalles de cómo aplicarlos y el grado de cambio necesario para que sean eficaces variarán en función de las aspiraciones y la naturaleza de la IA de una organización. Por ejemplo, podría estar buscando ser un creador de los modelos básicos, un formador que personaliza y escala los modelos básicos, o un tomador que adopta los modelos básicos a través de aplicaciones estándar con poca o ninguna personalización (por ejemplo, software estándar de productividad de oficina).

 

Los cuatro pasos
  • Lanzar un sprint para comprender el riesgo de las exposiciones entrantes relacionadas con la IA gen.
  • Desarrollar una visión global de la materialidad de los riesgos relacionados con la IA gen en todos los ámbitos y casos de uso, y crear una gama de opciones (incluidas medidas técnicas y no técnicas) para gestionar los riesgos.
  • Establecer una estructura de gobernanza que equilibre la experiencia y la supervisión con la capacidad de apoyar la toma rápida de decisiones, adaptando las estructuras existentes siempre que sea posible.
  • Integrar la estructura de gobernanza en un modelo operativo que aproveche la experiencia de toda la organización e incluya una formación adecuada para los usuarios finales.
Comprender y responder a los riesgos

Según McKinsey, los riesgos relacionados con la IAGen pueden agruparse en ocho categorías principales que incluyen tanto los riesgos entrantes como los riesgos que resultan directamente de la adopción de herramientas y aplicaciones de IA generativa. Todas las empresas deberían desarrollar alguna versión de esta taxonomía básica para facilitar la comprensión y la comunicación de los riesgos derivados de su implantación.

Decidir cómo responder a los estos riesgos debe servir de base para la forma en que una organización comunica la implantación de la IA generativa y sus casos de uso tanto a sus empleados, como a los representantes de los trabajadores.

Vemos cuatro fuentes principales de riesgo derivados de la adopción de la IA generativa:

  • Amenazas a la seguridad, derivadas del aumento del volumen y la sofisticación de los ataques del malware habilitado para la IAGen
  • Riesgo para terceros, derivado de las dificultades para comprender dónde y cómo pueden estar desplegando la IA generativa terceros, creando posibles exposiciones desconocidas
  • Uso malintencionado, derivado de la posibilidad de que agentes malintencionados creen falsificaciones convincentes de los representantes de la empresa o de la marca que provoquen un daño significativo a la reputación (a través del uso de imágenes, vídeos y voz)
  • Infracción de la propiedad intelectual, resultante de la IP (como imágenes, música y texto) que se raspa en los motores de entrenamiento para los grandes modelos de lenguaje y que se hace accesible a cualquier persona que utilice la tecnología
Gestionar los riesgos producidos por la adopción de la IAGen

Las organizaciones que aspiren a implantar la IA generativa tendrán que realizar esfuerzos adicionales y continuos para comprender y gestionar los riesgos de la adopción de la tecnología. Esto requerirá probablemente una inversión de tiempo, recursos y un cambio en la forma de trabajar. Sin embargo, es esencial si las organizaciones quieren obtener beneficios a largo plazo, sostenibles y transformadores del uso de esta tecnología. Los pasos en falso y los fracasos pueden erosionar la confianza de directivos, empleados y clientes y provocar una reducción del nivel de ambición a casos de uso ultraseguros que generen un riesgo limitado, pero que tampoco es probable que capitalicen el verdadero potencial de la tecnología.

Las organizaciones que deseen desplegar casos de uso de alto potencial para impulsar la productividad y la innovación; proporcionar un servicio al cliente mejor y más coherente; e impulsar la creatividad en marketing y ventas deben abordar el reto de la implementación responsable. Estos casos de uso tienen distintos perfiles de riesgo, que reflejan tanto la naturaleza de la propia tecnología como el contexto específico de la empresa en relación con las particularidades del caso de uso (por ejemplo, el despliegue de un chatbot de IAGen a determinadas poblaciones «de riesgo» tiene un perfil de riesgo muy distinto del de un despliegue B2B)

 

Un modelo operativo debe tener en cuenta cómo interactuarán las diferentes personas en las diferentes etapas del ciclo de vida de la IAGen. Habrá variaciones naturales para cada organización, en función de las capacidades específicas integradas en cada una de ellas. Los responsables de las empresas deben revisar sus manuales tecnológicos e impulsar la integración de una gestión eficaz de los riesgos desde el principio de su compromiso con la IAGen.

 

Identificar los riesgos en todos los casos de uso

El punto de partida esencial para las organizaciones que despliegan casos de uso de IA gen es mapear los riesgos potenciales asociados con cada caso a través de categorías de riesgo clave para evaluar la gravedad del riesgo potencial. Por ejemplo, los casos de uso que apoyan los viajes de los clientes, como los chatbots habilitados para IA gen para el servicio de atención al cliente, pueden plantear riesgos como la parcialidad y el trato desigual entre grupos (por ejemplo, por género y raza), preocupaciones sobre la privacidad de los usuarios que introducen información confidencial y riesgos de inexactitud por alucinación del modelo o información obsoleta.

Al realizar este análisis, es importante desarrollar una rúbrica para calibrar las expectativas de lo que constituye un riesgo alto frente a un riesgo medio en todas las categorías. De lo contrario, las organizaciones pueden encontrarse con desacuerdos motivados más por la comodidad individual sobre los niveles de riesgo que por factores objetivos. Tomando como ejemplo la privacidad de los datos, solemos considerar que los ejemplos de mayor riesgo requieren información personal o sensible para un entrenamiento preciso del modelo (o un mayor potencial para que los usuarios introduzcan información personal al interactuar con la tecnología). Los casos de menor riesgo no presentan ninguna de estas características. Siguiendo esta lógica, el desarrollo de una aplicación que ayude a un asesor a proporcionar asesoramiento financiero personalizado tendería a estar más expuesto al riesgo de privacidad que una aplicación que automatice plantillas de contratos básicos.

Es esencial que el ejecutivo encargado del caso de uso lidere la evaluación inicial de los riesgos asociados al mismo (como parte del papel del gestor de producto en un modelo operativo eficaz). Así se fomenta la concienciación adecuada de los riesgos potenciales y la responsabilidad de gestionarlos cuando se aprueba el caso de uso para su desarrollo definitivo. Además, un grupo interfuncional, que incluya a los responsables de negocio y a los miembros de las funciones jurídicas y de cumplimiento, debe revisar y validar las evaluaciones de riesgos de todos los casos de uso, y utilizar los resultados como aportación a la hora de tomar decisiones sobre la priorización de los casos de uso.

Considerar opciones para gestionar los riesgos en cada punto de contacto

Una vez que una organización identifica los riesgos relacionados con la IAGen, debe desarrollar estrategias para gestionar las exposiciones mediante una combinación de mitigación y gobernanza sólida. Muchas mitigaciones (aunque no todas) son de naturaleza técnica y pueden aplicarse a lo largo del ciclo de vida del proceso. Es importante destacar que no todos estos controles tienen que estar integrados en el propio modelo base subyacente (al que muchas organizaciones no tendrán acceso). Algunos pueden ser superposiciones construidas en el entorno local, como por ejemplo, un chatbot habilitado para Gen-AI diseñado por un departamento de RR.HH. para responder a las consultas de los empleados sobre prestaciones.

El valor de la gobernanza

Establecer la gobernanza adecuada es un paso necesario, pero no suficiente, para impulsar la adopción responsable de los casos de uso de la IA genérica a gran escala. Integrar la responsabilidad por diseño en el proceso de desarrollo es esencial para un despliegue sensato de la tecnología.

Hay cuatro roles críticos necesarios para una implementación exitosa de la gobernanza:

  • Diseñadores o  gestores de producto, que dirigen la implantación de la IA gen identificando nuevos casos de uso y teniendo en cuenta cómo encajan en la estrategia general y la hoja de ruta de la IA gen de la organización. Suelen proceder de los negocios y funciones en los que la organización está más convencida de que la IA gen puede tener un impacto significativo. Los jefes de producto deben responsabilizarse de identificar y mitigar los riesgos pertinentes. Desempeñarán un papel importante a la hora de impulsar los cambios culturales necesarios para adoptar la IA gen, incluida la creación de confianza en la propuesta de que el valor empresarial puede lograrse de forma responsable y segura para empleados y clientes.
  • Ingenieros, los expertos técnicos que comprenden la mecánica de la IA genérica. Desarrollan o personalizan la tecnología para apoyar los casos de uso de la IA gen. Igual de importante es que son los responsables de orientar sobre los aspectos técnicos de la IA gen.
  • Gobernadores, responsables de organizar los equipos que ayudan a establecer la gobernanza, los procesos y las capacidades necesarias para impulsar prácticas de implementación responsables y seguras para la IA gen. Esto incluye el establecimiento de marcos, barandillas y principios básicos de riesgo que guíen el trabajo de diseñadores e ingenieros, así como la evaluación de riesgos y la eficacia de la mitigación (especialmente para casos de uso de alto riesgo). El responsable de la gobernanza de la IA es un buen ejemplo de este tipo de persona, aunque la función deberá complementarse con otras, dada la variedad de riesgos potenciales. Lo ideal sería que estas funciones abarcaran el riesgo de los datos, la privacidad de los datos, la ciberseguridad, el cumplimiento normativo y el riesgo tecnológico. Dado el carácter incipiente de la IA gen, los gobernadores tendrán que coordinarse a menudo con los ingenieros para poner en marcha pruebas de «equipo rojo» de casos de uso emergentes construidos sobre modelos de IA gen para identificar y mitigar posibles retos.
  • Usuarios, quienes utilizan las nuevas herramientas o casos de uso de la IA gen. Será necesario formarlos y familiarizarlos con la dinámica y los riesgos potenciales de la tecnología (incluido su papel en el uso responsable). También desempeñan un papel fundamental a la hora de ayudar a identificar los riesgos de los casos de uso de la IA gen, ya que pueden experimentar resultados problemáticos en sus interacciones con el modelo.

 


 

Si quiere conocer más acerca de cómo mitigar los riesgos de la utilización de la IA en los procesos de gestión de talento consulte el Proyecto IA+Igual y las actividades de formación y sensibilización que desarrolla.


Observatorio de Recursos Humanos

ORH | Observatorio de Recursos Humanos

Desde 2006 trabajamos para ofrecer contenidos e información de valor para el profesional de la gestión de RRHH, con el convencimiento de que el conocimiento, en sus vertientes de creatividad, innovación y aprendizaje continuo, es el principal valor de una dirección eficaz.



Contacta con nosotros


Nuestros Otros Proyectos


Suscríbete al boletín

* campos obligatorios
Acepto las condiciones de uso y la política de privacidad


Síguenos en Redes Sociales