Esther Rodríguez-Losada, investigadora en el Instituto de Ciencia de Datos e Inteligencia Artificial de la Universidad de Navarra (DATAI), reflexiona sobre cómo la ética puede y debe integrarse en el desarrollo de la IA. Desde su especialización en filosofía, plantea los principales dilemas éticos y destaca la necesidad de una auditoría externa para asegurar que la tecnología, lejos de reemplazar la supervisión humana, sirva a los intereses del bien común.
La IA tiene cada vez un papel más relevante en la realidad actual. No solo en el mundo laboral, sino también en la educación o en el mundo de la información, por ejemplo. Si la IA se emplea en ámbitos referidos a la acción humana tendrá una dimensión ética, un criterio referido a lo bueno y a lo malo. La regulación permite garantizar unos mínimos, pero precisa de criterios que permitan una orientación. Además, no hay que pensar la ética como un lastre para el desarrollo de la IA. Es cierto que, en muchos ámbitos, señala ciertos límites, pero deben pensarse más bien como un reto a la creatividad de los desarrolladores, para poner siempre el futuro de la IA al servicio del hombre.
ORH.- En DATAI se ha especializado en la investigación del uso ético de la IA, ¿Cuáles son los principales dilemas éticos que ha encontrado en el uso de la inteligencia artificial, especialmente en el ámbito laboral y social?
Esther Rodríguez-Losada.- En primer lugar, aunque quizás en un sentido más abstracto, creo que hay un problema de fondo relacionado con nuestras expectativas hacia la IA. Al tratarse de una tecnología novedosa y capaz de manejar cantidades de información inabordables para un cerebro humano, corremos el riesgo de depositar en ella una confianza excesiva. Esto podría llevarnos a pensar que la IA puede tomar decisiones de manera autónoma, sin necesidad de una supervisión crítica, y a delegar en ella la responsabilidad sin considerar que, en última instancia, somos nosotros quienes establecemos las premisas.
En el ámbito laboral y social creo que las tres grandes cuestiones éticas que surgen son la privacidad, los sesgos y la explicabilidad. Aunque la privacidad es un tema profundamente ético, puede abordarse en gran medida a través de la legislación. Sin embargo, la discriminación y la comprensibilidad de los resultados son desafíos que deben enfrentarse desde la ética en IA. Detectar y mitigar los sesgos en la medida de lo posible y asegurar que la toma de decisiones con ayuda de la IA sea razonable y permita asignar responsabilidades son aspectos fundamentales que impactan directamente en el mundo laboral.
Evaluaciones éticas
ORH.- ¿Considera que las organizaciones que usan inteligencia artificial deberían establecer sus propias evaluaciones éticas o es esencial la intervención de entidades independientes?
E.R.L.- Es crucial que las organizaciones que utilizan inteligencia artificial (IA) lleven a cabo sus propias evaluaciones éticas, ya que esto fomenta una cultura de responsabilidad. Además, los sistemas de IA no son asépticos y neutrales sino que en ellos también debe permear en cierta medida la cultura y valores de la empresa.
Sin embargo, depender exclusivamente de estas evaluaciones internas tiene serias limitaciones, ya que pueden verse influidas por intereses económicos o de competitividad que podrían minimizar, o incluso pasar por alto, riesgos éticos. Por ello, la intervención de entidades independientes en la auditoría ética es esencial para garantizar una evaluación objetiva y creíble.
ORH.- ¿Cuáles considera que son las limitaciones actuales en la implementación de la ética en IA?
E.R.L.- El primer obstáculo a la hora de tener en cuenta la dimensión ética en el desarrollo de la IA es comprender el entorno socio-tecnológico en el que se despliega la herramienta. Un sistema no se desarrolla en un contexto abstracto, sino que trata de satisfacer una necesidad concreta. Sin tener en cuenta esas particularidades corremos el riesgo de no contemplar las implicaciones éticas que se derivan.
En segundo lugar, la implementación de la ética en este ámbito puede encontrarse una barrera cultural. Requiere un cambio de mentalidad que valore no solo los obstáculos sino los beneficios que supone introducir la dimensión ética en la ecuación. Muchas empresas, ante la presión competitiva, no contemplan la ética más que desde el aparente trade-off con la rentabilidad, conformándose con un cumplimiento de los mínimos normativos.
Además, la creciente aceleración de la innovación tecnológica dificulta que se dé la correspondiente elaboración ética ante los nuevos desafíos y existe el riesgo a conformarse con saber de su eficiencia sin adentrarse en la explicabilidad de la “caja negra”, pero esto no hace más que limitar la capacidad de evaluar éticamente un sistema y complicar la detección de sesgos.
Analizar los sesgos
ORH.- Ahora forma parte de IA+Igual a través de DATAI, un proyecto que busca analizar algoritmos y garantizar el uso ético de la IA en recursos humanos. ¿Por qué cree que es importante esta iniciativa?
E.R.L.- En el ámbito de recursos humanos, las decisiones afectan directamente la vida de las personas, desde su contratación hasta el desarrollo de su carrera, la retención de talento o el despido. Además, es un área especialmente vulnerable a problemas de sesgos y al posible uso inadecuado de los datos.
No todo es automatizable; estas decisiones requieren de una supervisión crítica. Con la creciente proliferación de la IA y su incuestionable eficiencia en la resolución de tareas que antes requerían largas horas de trabajo humano, es necesario repensar en qué aspectos somos insustituibles y en los que nuestra intervención es irremplazable.
ORH.- IA+Igual busca realizar análisis para minimizar los sesgos algorítmicos. Desde su perspectiva como experta en ética, ¿Qué pasos considera esenciales para que la IA se aplique de manera justa y equitativa en decisiones que afectan a las personas?
E.R.L.- En primer lugar, es fundamental no perder de vista que la IA no toma decisiones de forma autónoma; más bien, constituye una herramienta que nos ayuda en el proceso de toma de decisiones. En este sentido, la responsabilidad de las decisiones tanto para los proveedores de soluciones de IA como para sus usuarios, no debe diluirse.
Para alcanzar una solución lo más equitativa posible, es esencial examinar cuidadosamente los datos que alimentan al modelo. Esto implica, además, identificar cuál es la variable sensible o grupo vulnerable (una tarea que no puede automatizarse por completo) para evaluar la equidad en los resultados y detectar si dicho grupo resulta desfavorecido por el modelo.
Por último, es necesario abrir canales para el feedback de las personas afectadas por los resultados del modelo. Esto permite reducir el riesgo de que alguna implicación ética pase desapercibida y evita considerar el resultado del modelo como una verdad absoluta. Además, es fundamental someter el modelo a supervisión y corrección continua.