En las últimas semana se ha abierto un gran debate a nivel europeo sobre la necesidad de eliminar burocracia en la aplicación del RIA. No es menor la polémica que genera en España la futura ley para el buen uso y gobernanza de la Inteligencia Artificial (IA) en España y el Código de Buenas Prácticas para Desarrolladores. Y, por si no fuera suficiente, EE.UU, calienta este debate tratando de frenar el RIA. Frank Moreno, miembro delegado de la Oficina Europea de IA explica en esta entrevista cómo garantizar la innovación y la protección de los derechos fundamentales de los trabajadores.
Un argumento claro a la hora de implantar el Reglamento de Inteligencia Artificial europeo (RIA) es la posible sanción de hasta 35 millones de euros para las compañías que hagan un mal uso de esta tecnología. Sin embargo, en esta entrevista nos adentramos en una IA centrada en la innovación y los derechos de los trabajadores de la mano de Frank Moreno, experto en Innovación por parte del MIT (Instituto Tecnológico de Massachusetts) y, además, Embajador de IA+Igual.

ORH.- La futura ley sobre el buen uso y la gobernanza de la IA trata de adaptar el RIA al ordenamiento jurídico español. ¿Por qué han surgido tantas inquietudes acerca del equilibrio entre innovación y regulación, así como acerca del impacto en los derechos fundamentales de los trabajadores?
FM.- En general, han surgido numerosas inquietudes que podemos centrar en torno a esos dos grandes temas: equilibrio entre regular e innovar e impacto en los derechos fundamentales de los trabajadores. La IA tiene un enorme potencial respecto a la regulación e innovación para transformar prácticamente todos los sectores, como la sanidad, la educación o la industria; sin embargo, al evolucionar tan rápidamente, plantea retos en términos de ética, privacidad y transparencia. Por eso, la regulación europea busca mitigar riesgos como el sesgo algorítmico (considerado un riesgo sistémico) y la falta de transparencia, pero existe el miedo de que una regulación excesiva pueda frenar la innovación y el desarrollo tecnológico. Hace falta una adopción evolutiva de la IA y las leyes deben ser lo suficientemente flexibles y ágiles para adaptarse a estos cambios sin convertirse en un obstáculo para la innovación, la creatividad y el desarrollo.
Al mismo tiempo, la implementación de IA en el ámbito laboral ya está afectando a derechos fundamentales como la privacidad, la seguridad y la no discriminación. Los sistemas utilizados en procesos de selección y recruitment, por ejemplo, deben ser transparentes y justos para evitar cualquier tipo de discriminación y proteger la privacidad de los trabajadores, además de sus propios derechos fundamentales.
Es esencial que el personal reciba una formación adecuada sobre el uso de tecnologías de IA y que exista supervisión y control para garantizar un uso ético y seguro. Estas preocupaciones – miedos- reflejan la necesidad de encontrar un equilibrio entre fomento de la innovación y la garantía de la protección de los derechos fundamentales, asegurando que la IA se desarrolle y utilice de manera responsable, ética, transparente y beneficiosa para todos.
Un RIA simplificado
ORH.- No hay confirmación oficial de una versión simplificada del RIA en un intento de Europa de frenar la burocracia en la implantación de la IA. Si embargo, pero preocupa ya la posibilidad de que un posible ‘ajuste’ comprometa la protección de derechos fundamentales…
FM.- Aunque no haya confirmación oficial, la idea de simplificar la normativa para reducir la burocracia genera inquietudes y preocupaciones sobre la posible afectación de los derechos fundamentales en tres puntos: protección de dichos derechos, evaluación del impacto de la IA a corto y medio plazo (12-18 meses) y transparencia y responsabilidad, ya que esta última recae sobre personas con roles y responsabilidades adquiridos por la implantación de dicha normativa
ORH.- El RIA es una normativa transversal, extensible a 27 países, algunos de los cuales han tenido que hacer concesiones, como la renuncia al uso de datos biométricos. ¿Hace falta una mayor claridad por parte del reglamento para evitar interpretaciones divergentes?
FM.- Sí, la claridad del RIA es fundamental para evitar esas divergencias y para garantizar una aplicación coherente en todos los países miembro de la Unión Europea: uno de sus principios se basa en la transversalidad de la norma (afecta a todos). Los responsables de las áreas de IA de las organizaciones, sobre todo en el caso de los datos biométricos, piden:
- Directrices claras: con resúmenes y casos de uso (ejemplos).
- Interpretaciones uniformes: se entiende mejor con un supuesto -por ejemplo, lo que se aplique en Alemania, deberá arrojar medidas iguales o muy similares, si se aplicase en Francia, ya que se trata del mismo principio-.
- Consultas y guías: la ley y el reglamento son demasiado generalistas, y no terminan de ‘aterrizar’ la realidad profesional y empresarial del uso y aplicaciones de la IA, no sólo generativa, si no también agentes de IA como los RAG (Retrieval-Augmented Generation), automatización de flujos de trabajo, agentes basados en herramientas, en programación y computación o codificadores, por citar algunos ejemplos de uso intensivo a día de hoy.
El código de buenas prácticas para los desarrolladores
ORH.- En España sigue abierto el debate sobre sobre la tercera versión del futuro Código de Buenas Prácticas para los desarrolladores. ¿Está en juego, como temen algunos, una posible relajación de algunas obligaciones de RR. HH., como la evaluación de riesgos?
FM.- Para frenar esa inquietud es necesario adoptar toman medidas en torno a tres puntos muy definidos:
- Evaluación de riesgos: cuáles son los más relevantes, cómo definirlos y posicionarlos en la estrategia de la organización y cómo regularlos para mitigarlos o mejor aún, eliminarlos-
- Impacto en la gestión de RR. HH: uno de los principales riesgos es la relajación, es decir, dejar en manos de una IA, un sistema automatizado, la parte de atracción de talento, selección y operativa de eficiencia de los empleados, todo un reto, por ejemplo, para gestionar bonus, comisiones, fees, etc.
- Transparencia y responsabilidad: el fracaso puede ser absoluto si no disponemos de un reglamento riguroso y flexible a la vez, ágil pero además práctico, y adaptable a las organizaciones. Hablando en términos de estrategia de competitividad, en algunas organizaciones podría convertirse en un ‘suicidio’ asistido, aunque suene alarmista. Es temerario aplicar algo sin conocerlo en profundidad.
Es necesario un enfoque centrado y equilibrado: la IA abre muchas posibilidades, pero sin control nos puede llevar a situaciones comprometidas. Es imprescindible la figura del Chief AI Officer, una especie de bombero apagafuegos ante posibles estragos que podría generar la lA.
ORH.- ¿Contribuyen los mecanismos de supervisión y auditoría, como la ISO/IEC 42001 a mitigar los posibles sesgos derivados del uso de la IA en RR. HH.?
FM.- La ISO/IEC 42001 proporciona un marco robusto para la supervisión y auditoría de sistemas de IA, ayudando a mitigar los riesgos y garantizar un uso ético y responsable de la tecnología. Es imprescindible tenerlo siempre en cuenta, incluso colgado en una pared como se hizo durante mucho tiempo con la aclamada (y poco valorada) ISO 9001.
Ahora bien, conviene saber qué conlleva la implantación e implementación (que no son lo mismo), de la ISO 42001 en una organización cualquiera: gestión ética de la IA; evaluación y mitigación de riesgos, transparencia y trazabilidad; y cumplimiento legal.
Los cuatro impactos de mitigación de riesgos, por sí solos, son imprescindibles, pero sí los aplicamos todos, con la ISO 42001, conseguiremos una mayor protección y control. En este caso, hay que aplicar mecanismos de autoprotección y AI testing, es decir, hacer simulacros de impacto de situaciones de alto riesgo e incluso catastróficas. Sólo nos acordamos de estas normas cuando pasa algo realmente importante, pero esta ISO es anticipación y aplicación. Por resumir, hay que actuar teniendo en mente cómo reducir los sesgos y disponer de medidas, herramientas y controles de transparencia, trazabilidad y confianza.
En busca del liderazgo europeo
ORH.- El objetivo del nuevo ‘Plan de Acción de la IA de la Unión Europea’ es convertirse en líder mundial en IA, con iniciativas como el mayor acceso a grandes datos o la creación de una base internacional de talento experto. ¿Está siendo ágil e innovadora la UE, dos requisitos que ha citado anteriormente acerca del RIA?
FM.- Antes de responder a la pregunta, voy a exponer las medidas del ACAP (por sus siglas en inglés). El objetivo de la UE se centra en cuatro grandes puntos:
- Acceso a grandes datos: a través sobre todo del Portal de Datos Europeos, y la estrategia de datos centrada en un mercado único de datos
- Creación de una base internacional de talento: mediante una academia europea de capacidades de IA -curiosamente Finlandia, el primer país en acometer el uso y conocimiento de la IA hace más de 3 años, es un país de referencia en la ausencia de burocracia)- y los EDIH (Centros Europeos de Innovación Digital). Me fío de estos centros porque los conozco bien y unen a directivos, empresarios y profesionales entusiastas con más visión práctica y menos legislativa y burocrática.
- Inversión colaborativa: primero en las AI Factories, concepto muy disruptivo que aglutina a startups, industrias y el sector investigador (una triada muy muy valiosa en la que, de momento, no está presente de forma directa ningún órgano administrativo público…); y en segundo lugar, los Invest AI, una inversión de más de 200.000 millones de euros para inversiones en IA, sobre todo gigafábricas de IA, centros de computación cuántica y centros de datos -además de un gran reto, es un misterio de dónde sacarán el dinero-.
4.- Innovation hubs: polos de innovación que surgen por iniciativa de diferentes países europeos para fomentar la colaboración entre países y organizaciones, la promoción de la transparencia en el uso de la IA y la inversión en talento y capacidades de personas y startups en el marco de iniciativas como summit days, hackathons y eventos similares con foco directo o indirecto en la IA.
Se habla mucho de agilidad e innovación pero se hace muy poco, por lo que no creo en la agilidad e innovación europea.
Las empresas están implementando diversas estrategias para mejorar la comprensión, uso y transparencia de los sistemas de IA en su ámbito empresarial, con énfasis en las relaciones laborales. Las nueve claves imprescindibles, según el entrevistado, son: