Ecosistemas de IA y protocolos normativos internos: entre la equidad, la innovación y el cumplimiento normativo

Maite Sáenz31 agosto 20226min

En su ritmo de avance vertiginoso la IA implica más y más a toda la cadena de valor de las organizaciones sin tener un marco regulatorio, ni propio ni externo, que dote de unas reglas de juego conocidas, compartidas y seguras para toda ella. No le corresponde a la tecnología asumir el rol de legislar sino el de aportar innovación, y mientras avanza cumplidora en éste su cometido, la brecha normativa se convierte en un riesgo para esa misma innovación. El estudio de Accenture “From AI compliance to competitive advantage” propone algunas ideas para que las organizaciones se doten de protocolos de operativa interna que les ayuden a crear su propio ecosistema de reglas de uso de la IA.

Donde no hay seguridad jurídica se instala la desconfianza y eso, en términos de innovación, es un freno a la experimentación, a la agilidad… a todo lo que ahora, en definitiva, dirime la competitividad empresarial. Las organizaciones saben que la transformación digital es un campo de juego inminente y la gran mayoría están adaptando sus procesos y su cultura para competir en él. Pero como recoge el informe de Accenture, son multitud (94%) las que no saben cómo desarrollar una estrategia de IA responsable y el 70% no tiene un modelo de gobernanza de la IA operativo e integrado. “Esta falta de claridad condiciona decisiones estratégicas y pueden llevar a cierta ‘parálisis por el análisis’”, advierten sus autores.

Para evitarlo, los expertos de la consultora recomiendan tener claro cinco ámbitos de reflexión y/o actuación:

  • Asumir una estrategia de IA responsable es una responsabilidad multifuncional que debe ser parte de la visión de la alta dirección. Sin embargo, la práctica de la mayoría de las empresas demuestra que hacen recaer la responsabilidad del cumplimiento en silos concretos: el Jefe Data Officer (CDO) o equivalente (CDAO, CIO, CTO). Sólo el 4% de las organizaciones dicen tener tienen una función “cross” con capacidad para asegurar la trazabilidad del cumplimiento en todos los eslabones de la cadena de valor. “ La IA responsable es relevante para toda la organización, desde los equipos de datos e IA, hasta los legales y de riesgo, marketing, recursos humanos y otras funciones corporativas”, explica el informe.
  • Los protocolos de gestión de riesgos son un requisito para toda IA, pero no son de “talla única”. Para saber si tenemos una estrategia de IA es responsable no podemos detenernos en un análisis puntual en un área de la organización, en un momento determinado o en un contexto concreto. La verificación ha de ser transversal y continua. Por ello, el auténtico desafío radica en aplicar los protocolos en toda la organización y de manera sostenible.
  • Los ecosistemas de IA son poderosos, pero las organizaciones serán tan fuertes o tan débiles como el más fuerte o más débil de sus socios en la cadena de valor. “La mayoría (si no todas) las organizaciones importantes operan en ecosistemas que abarcan muchos socios y la normativa vigente obliga a las empresas a pensar en toda ella con un enfoque en sistemas de alto riesgo), no sólo en los elementos que son de su propiedad”. De hecho, el 39% de los encuestados admite que uno de sus mayores retos es el de la regulación interna y sólo el 12% tiene incluida la competencia de IA responsable en los requisitos en los contratos con proveedores. Comprender los roles y las responsabilidades de cada uno en el ecosistema es imprescindible para avanzar con seguridad y confiabilidad en el camino de la IA.
  • La cultura es clave, pero necesita de talento experto para sembrarla. Por un lado, no hay suficientes perfiles expertos en IA y las empresas los necesitan para desplegar estrategias consistentes y con conocimiento de causa. Pero es que, además, y respecto al conjunto de los empleados, no se puede sensibilizar sobre algo que se desconoce; por eso, hay que empezar por los principios. Es importante que cada empleado tenga un conocimiento suficiente sobre lo que implica la IA para el negocio y cómo ha de ser integrada. A partir de ahí, crear cultura sobre principios y prácticas de IA responsables será más factible.
  • La IA es innovación y sus KPI’s también han de serlo. Adiós a los indicadores tradicionales cuando lo que se trata de medir es el éxito de proyectos de IA. El estudio llama la atención sobre el hecho de que todavía son escasas las empresas en las que se han identificado kpi’s específicos para monitorizar la IA responsable. Y advierte: “Sin técnica establecida métodos para medir y mitigar los riesgos, las organizaciones no pueden tener la confianza de que el sistema es justo”. Se impone, pues, hacer seguimiento concreto y continuado del uso e impacto de los datos y los modelos utilizados, así como de los resultados obtenidos para, por ejemplo, evitar los sesgos en el aprendizaje de los algoritmos.

Photo by Markus Spiske on Unsplash.


Observatorio de Recursos Humanos

ORH | Observatorio de Recursos Humanos

Desde 2006 trabajamos para ofrecer contenidos e información de valor para el profesional de la gestión de RRHH, con el convencimiento de que el conocimiento, en sus vertientes de creatividad, innovación y aprendizaje continuo, es el principal valor de una dirección eficaz.



Contacta con nosotros


Nuestros Otros Proyectos


Suscríbete al boletín

* campos obligatorios
Acepto las condiciones de uso y la política de privacidad


Síguenos en Redes Sociales