Preguntas con pensamiento crítico para crear una IA ética

Maite Sáenz19 septiembre 202413min
Por Yolanda Romero, coordinadora del Campus IA+Igual.- La inteligencia artificial es hoy toda una revolución, y como la tecnología disruptiva que es, es provocativa porque produce puntos de inflexión: genera pioneros, convence a los incondicionales y rebota en los escépticos. Pero hagamos un ejercicio de reflexión, una breve visión panorámica de algunas de esas otras tecnologías disruptivas que cambiaron la historia a lo largo de los siglos mucho antes de la IA. El primer gran descubrimiento, el fuego, fue hace unos dos millones de años la clave de la supervivencia de nuestra especie. Después llegó, hace 5.500, la rueda, y 500 después la escritura, unos «poquitos» siglos antes del artefacto que disparó la divulgación del conocimiento (la imprenta). La primera revolución industrial se produjo hace 200 años, el descubrimiento de la electricidad hace 100 y fue apenas 40 atrás, todavía en el siglo XX, cuando los ordenadores comenzaron a entrar en las empresas. Y llegamos a 2024. Hoy Internet y las redes sociales tienen capturada toda nuestra atención, han roto el statu quo de un paradigma de relaciones personales, acceso a la información y generación de opinión basado en el tiempo compartido en el mismo espacio y/o en el mismo tiempo a otro líquido, tan pronto síncrono como asíncrono, presencial o remoto, con conocidos o desconocidos. Pero con una diferencia importante: la aceleración exponencial que supone la IA como transformación tecnológica multiplica las posibilidades para cualquiera de nosotros de aceder a la información y también de crearla. Sin filtros. Sin verificación de autenticidad.

 

Necesitamos una mayor capacidad para reflexionar y pensar de forma crítica para poder comprender lo que nos cuentan e, incluso, lo que vemos. Necesitamos cuestionarlo todo no sólo para juzgar si es bueno o malo, que también, sino además para precisamente huir de esa dualidad simplista de los extremos. Hemos de preguntarnos los para qué, los por qué y los cómo, y analizar de manera profunda y consciente los significados, las interpretaciones y las fuentes, así como las posibles implicaciones, consecuencias o impactos en el corto y largo plazo.

El pensamiento crítico no es una competencia nueva, pero cada vez que atravesamos un período de cambios profundos se hace más necesaria para poder asimilar de forma adecuada lo que sucede a nuestro alrededor. Ahora se percibe más adormecida o neutralizada por un contexto, el tecnológico, omnipresente e hiperestimulante que nos aleja de la reflexión. En esta revolución de la IA, como en muchas otras ocasiones, surgen detractores y auténticos fans, unos alimentados por el miedo a lo desconocido, algo ancestral en el ser humano sobre aquello que no comprende del todo, otros alimentados por la ilusión y el entusiasmo de las posibilidades que plantea. ¿Y si en lugar de esta polarización aplicamos un pensamiento crítico y nos hacemos algunas preguntas?

  • ¿Qué aplicaciones puede tener que contribuyan a mejorar la vida laboral de las personas?
  • ¿Cuáles son los riesgos relacionados con estos desarrollos?
  • ¿Qué dilemas éticos nos plantea en la empresa, en la sociedad y al individuo?
  • ¿Están todas las empresas preparadas para ello?
  • ¿Qué tipo de formación técnica y humanista necesitamos para asumir de forma responsable la creación y también el uso de la IA?
  • ¿En qué dirección hemos de invertir para dar prioridad a las necesidades del ser humano y no exclusivamente a los intereses de negocio?
  • ¿Qué futuro nos depara la IA?

Las respuestas no son fáciles ni rápidas y, de hecho, a esta última la respuesta más sincera y verdadera es, para mí, “que no tenemos ni idea”. Esto ha sido siempre lo bonito del futuro, crearlo; por eso quizá la pregunta correcta sea: ¿Qué podemos imaginar que nos puede deparar la IA para ser mejores, para generar más oportunidades y más inclusivas y para, en definitiva, ponerla al servicio de las personas y no al revés? El para qué queremos la tecnología es la primera gran pregunta y el cómo le sigue después.

¿Os habéis preguntado últimamente qué ha pasado con el metaverso? ¿Está teniendo éxito? ¿Cuáles son los beneficios tangibles? Muchos pensamos que es otra tecnología interesante que, sin duda tiene aplicaciones, pero que aún no se ha convertido en “El Dorado” del que se hablaba. Que se lo digan a Meta, que dice seguir invirtiendo millones pero que ahora ha virado más hacia la IA. Nadie sabe si lo que tiene en mente es la idea de hibridarlas, pero lo que sí que sabemos todos es que de ser el “Ready Player One” en la vida real del siglo XXI ha pasado a ser un negocio fallido para muchos, con inversiones millonarias apenas rentabilizadas en entornos de juego y de aprendizaje virtuales que no han terminado de seducir del todo ni a los clientes corporativos ni a los de a pie. Diría incluso que se ha convertido en un concepto “retro”, que los avatares vienen de lejos. Por cierto, todos mis respetos a lo retro, soy Friki y a mucha honra.

Otra de las preguntas claves para mí es: ¿Cómo deberíamos construir nuestra relación con la inteligencia artificial? Porque tenerla la vamos a tener. La velocidad de su evolución complica su adopción porque ni el mercado la puede absorber ni, sobre todo, intelectualmente tampoco podemos adaptarnos a ella a su mismo ritmo. Para muchos exige actualizarse y superar miedos, y creo que en general modifica comportamientos, hábitos, rutinas y rituales de los que tenemos que ser conscientes para no perdernos en el camino. En mi opinión, los humanos debemos estar al mando, y eso significa que tenemos la responsabilidad de pensar y definir cómo debería comportarse la IA y cómo debe ser nuestra interacción con ella para que sea beneficiosa para todos, no solo para algunos.

Propongo algunas ideas, con sus correspondientes preguntas, en las que enfocarnos aplicando esta facultad maravillosa que tenemos de pemnsar desde la crítica constructiva:

  • Visión de complementariedad con la IA: ¿Cómo nos podemos complementar con la IA eliminando el concepto de reemplazo para seguir siendo relevantes? Por el momento, a mi entender los inteligentes seguimos siendo nosotros, somos los creadores ¿no?
  • Transparencia y honestidad en el uso de la IA: El RIA deja claro que tenemos el derecho se saber si una información, sea cual sea su formato (texto, imagen o voz), pero ¿de quién es la autoría de un texto generado por una IA, del dueño de la IA, de la IA, del usuario que ha generado ese documento con una IA? ¿Es plagio si lo entregamos tal cual nos lo entrega la IA, por ejemplo, para diseñar una formación corporativa?
  • Calidad de los resultados de la IA: Pongamos como ejemplo que dejamos que los contenidos de los que se alimenta la IA cada vez más sean los propios que ella genera y no los que creamos los humanos. ¿Podría darse una degeneración del contenido que nos termine arrojando un refrito de ideas más que un texto solvente que nos ayude?
  • Explicabilidad y responsabilidad: El enfoque de riesgo que le da el RIA a la regulación de esta tecnología alcanza a un concepto básico para generar confianza en ella: la explicabilidad de su funcionamiento. Las empresas que trabajen con ella tendrán la obligación de hacer entender lo más claramente posible por qué un algoritmo arroja las recomendaciones o el dato que ofrece, para que así el concepto «caja negra» se minimice hasta el mínimo común divisible. La lógica del algoritmo ha de ser explicada para ser entendida por la lógica humana. ¿Por qué llega a esta conclusión y no a otra? ¿Podría haber obviado algo que perjudique a la persona a la que afecta la toma de la decisión basada en IA? Y en el ámbito de la responsabilidad, vuelve a aparecer la persona como el último eslabón que interpreta el resultado del algoritmo, que lo revisa y lo valida, porque la responsabilidad de la toma de decisiones, y también lo dice el RIA, siempre será humana. ¿Cómo diseñar un programa de compliance que equilibre las responsabilidades personales y corporativas? Yo, como responsable último de tomar la decisión, ¿cómo puedo ser consciente de mis sesgos y cómo puedo descubrir los de la máquina?

 

Me quedo corta con los aspectos a los que prestar atención y muy escasa con las preguntas a realizar para crear un marco ético de la IA, pero sirva de comienzo esta lectura para hacer más y mejores preguntas, y para tomar consciencia de la importancia de nuestra responsabilidad para que sea un paso más en la evolución humana y no una involución en la que seamos los protagonistas de nuestra propia ciencia ficción.

 

 

¿Conoces el proyecto IA+IGUAL?

IA+IGUAL es un proyecto pionero en nuestro país cuya finalidad es la de realizar un análisis técnico de modelos de IA aplicados a procesos de RR.HH. para ver cómo gestionan la variable sesgo en su concepto más amplio: diversidad de género, de edad, de raza, de origen, de capacidades, etc.

Financiado con Fondos Next Generation desde la Consejería de Innovación Social de la Comunidad de Madrid, el proyecto está liderado por CVA, ORH e IN2 que desarrollan, respectivamente, las áreas de comunicación, formación y sensibilización y análisis técnico de modelos de IA en una decena de empresas. La participación es gratuita y los únicos requisitos para participar son:

  • Tener actividad en la Comunidad de Madrid.
  • Disponer de un modelo de IA ya en funcionamiento o en fase de pruebas.

Los resultados de las evaluaciones son totalmente confidenciales y a tal efecto se firma un rugiroso compliance que asegure el deber de secreto por todas las partes implicadas. Una vez culminado el trabajo de análisis algorítmico, DATAI, el Instituto de Ciencia de Datos e Inteligencia Artificial de la Universidad de Navarra, utilizará las conclusiones y enseñazas obtenidas en información agregada para elaborar un Libro Blanco con recomendaciones para que las organizaciones de todo el país puedan introducirse en la utilización de esta tecnología con las suficientes garantías normativas, éticas, reputacionales y de procesos.

Si estás trabajando con IA en cualquiera de las funciones de RR.HH y tienes cusiosidad por saber cómo podemos prestarte nuestro apoyo no dudes en contactarnos.


Observatorio de Recursos Humanos

ORH | Observatorio de Recursos Humanos

Desde 2006 trabajamos para ofrecer contenidos e información de valor para el profesional de la gestión de RRHH, con el convencimiento de que el conocimiento, en sus vertientes de creatividad, innovación y aprendizaje continuo, es el principal valor de una dirección eficaz.



Contacta con nosotros


Nuestros Otros Proyectos


Suscríbete al boletín

* campos obligatorios
Acepto las condiciones de uso y la política de privacidad


Síguenos en Redes Sociales