Gobernanza y personas para implementar una IA responsable

Maite Sáenz26 marzo 20247min
La adopción de herramientas de IA generativa, estilo Copilot o Gemini, no es un proyecto de tecnología sino un proceso de consultoría de gestión del cambio. Como tal, necesita actuar sobre el ecosistema y sus partes, clarificando roles, responsabilidades y portavoces que contribuyan a empapar la cultura corporativa de sensibilidad para trabajar con ellas con consciencia de sus posibles sesgos y responsabilidad sobre la interpretación de sus outputs.

 

Establecer la gobernanza adecuada es un paso necesario, pero no suficiente, para impulsar la adopción responsable de casos de uso de IA genérica a escala. Según refiere McKinsey, hay cuatro roles críticos necesarios para la implementación exitosa de esto en todos los casos de uso, donde las responsabilidades de estos roles están estrechamente vinculadas con su talento y las acciones esperadas para impulsar los casos de uso:

Diseñadores o gerentes de producto:      

  • Identifican los nuevos casos de uso con conocimiento de cómo encajan en la estrategia y hoja de ruta general de IA de la organización.
  • Se responsabilizan de identificar y mitigar los riesgos relevantes.
  • Contribuyen a impulsar los cambios culturales necesarios generando confianza sobre la IA generativa como valor empresarial responsable ante los empleados y los clientes.

Ingenieros:

  • Comprenden la mecánica de la generación de IA.
  • Desarrollan o personalizan la tecnología para respaldar los casos de uso.
  • Asumen la responsabilidad de orientar sobre la viabilidad técnica de las mitigaciones de riesgos así como de codificarlas y de realizar los seguimientos técnicos oportunos.

Responsables de gobernanza:

  • Ayudan a establecer la gobernanza, los procesos y las capacidades necesarios para impulsar prácticas de implementación responsables y seguras.
  • Establecen marcos de riesgo básicos, barreras de seguridad y principios para guiar el trabajo.
  • Dada la variedad de sesgos y riesgos a los que se enfrenta la IA generativa, su rol ha de complementarse con otros que cubran la problemática en torno a los datos, su privacidad, la ciberseguridad, el cumplimiento normativo y el riesgo tecnológico.

Usuarios:

  • Son los empleados que utilizan las herramientas o son objeto de su uso.
  • Contribuyen a identificar los riesgos experimentando resultados problemáticos en sus interacciones con el modelo.

“Un modelo operativo en el que participen los roles descritos debe tener en cuenta cómo interactuarán todos ellos en las diferentes etapas del ciclo de vida de la IA generativa – explican desde McKinsey-. Habrá variaciones naturales para cada organización, dependiendo de las capacidades específicas incorporadas en cada una de las personas”.

A este respecto, desde la consultora vaticina que el modelo adoptado requerirá que las organizaciones realicen cambios en tres elementos centrales de la gobernanza:

  • Creación de un comité directivo multifuncional que se reúna al menos una vez al mes. Ha de incluir directivos, responsables de negocio y expertos en tecnología, así como ingenieros de datos, privacidad, asuntos legales y cumplimiento normativo. Al frente del grupo directivo tendría que haber una persona que haga suya la coordinación y agenda del mismo, así como el seguimiento de la operatividad de sus decisiones. Entre las responsabilidades que tendría el comité destacan:
    • tener autoridad reconocida para tomar decisiones críticas, incluido el derecho de veto, sobre la gestión de los riesgos de la IA generativa tanto en los generales como en los específicos para la empresa;
    • revisar decisiones estratégicas como la selección de los modelos algorítmicos y la compatibilidad con la política de riesgo de la organización.
  • Establecimiento de directrices y políticas de IA responsable a modo de principios rectores acordados por el comité de dirección y revisadas periódicamente a medida que surjan nuevas oportunidades de asunción.
  • Introducción del concepto de IA responsable en la cultura corporativa, para que sea asumida en cascada por toda la organización, con responsabilidad, desarrollo de capacidades y concienciación adaptados al grado relevante de exposición de los roles relevantes a las tecnologías.

 

Capacitar en sesgos y en cultura del dato

En este punto se hace evidente que la capacitación en el uso de la IA responsable es crítica para que los usuarios sepan cómo interactuar con la herramienta de forma segura y para que comprendan sus riesgos. Desde la consultora ponen el ejemplo de cómo proceder ante las alucinaciones de la IA: “los usuarios deben ser conscientes de que la máquina se puede equivocar y que no deben aceptar una respuesta sólo porque su máquina se la haya proporcionado”. Y ello porque verificar, a modo de doble autenticación, es un paso necesario que sólo los humanos pueden dar.

También es fundamental incluir los aspectos éticos en la capacitación de los técnicos desarrolladores y en los responsables del diseño algorítmico. “Las consideraciones de talento incluyen incorporar una combinación de talento técnico y no técnico e, idealmente, talento técnico con experiencia en riesgos”.

Foto de Jonathan Kemper en Unsplash.


Observatorio de Recursos Humanos

ORH | Observatorio de Recursos Humanos

Desde 2006 trabajamos para ofrecer contenidos e información de valor para el profesional de la gestión de RRHH, con el convencimiento de que el conocimiento, en sus vertientes de creatividad, innovación y aprendizaje continuo, es el principal valor de una dirección eficaz.



Contacta con nosotros


Nuestros Otros Proyectos


Suscríbete al boletín

* campos obligatorios
Acepto las condiciones de uso y la política de privacidad


Síguenos en Redes Sociales