José Antonio Marina: IA y el eclipse del pensamiento crítico
La irrupción de la inteligencia artificial generativa plantea varias preguntas: ¿necesitamos los humanos dotarnos de algún tipo de tecnología para aprovechar al máximo las ventajas de esta tecnología inteligente disruptiva, de la que también debemos protegernos ante sus posibles efectos negativos? Y, en este contexto ¿podría decirse que nuestro pensamiento crítico funciona a modo de vacuna contra la desinformación?
Para dar contenido a estos planteamientos, nos hacemos eco de una entrevista realizada por Tomás Pereda, subdirector general de Fundación máshumano, a José Antonio Marina, catedrático de filosofía, ensayista y considerado uno de los intelectuales de mayor reconocimiento de los últimos tiempos en nuestro país. A ello se suma el Premio al Pensamiento Humanista que Marina recibió en 2023 de la Fundación máshumano.
Marina siempre se ha sentido atraído por el funcionamiento de la inteligencia humana cuyo fin es el de “dirigir el comportamiento a lo largo de su trayectoria”. La primera vez que escuchó hablar de inteligencia artificial fue a los 17 años cuando su profesor de Matemáticas le explicaba en qué consistía un GPS (General Problem Solver), ideado por Allen Newell y Herbert A. Simon a finales de la década de los años cincuenta. El siguiente hito que llamó su tención fue el “Deep Blue” de IBM, un supercomputador de ajedrez que ganó al campeón Garry Kasparov (1997).
La inteligencia artificial ha pasado por distintos procesos, pero Marina destaca que ha sido la irrupción de los sistemas Generative Pre-trained Tranformer (GPT) los que han puesto de manifiesto “la capacidad de las máquinas para generar y gestionar un lenguaje natural de manera más coherente y útil”, y, sobre todo, “imitar de manera sorprendentemente y profunda el funcionamiento del cerebro humano”.
Juan Antonio Marina. Imagen: Fundación máshumano
El ensayista incide en que el algoritmo de ChapGPT funciona como un “loro” que solo calcula “probabilidades para el encadenamiento de palabras gráficas”, y advierte que no es conveniente utilizar «términos de humanización de la IA” porque sus procesos no se asemejan a los de los seres humanos.
Las luces y sombras de la IA
Está claro que la IA ha venido a aportar oportunidades sorprendentemente útiles en todos los aspectos de la sociedad:
- La IA facilita patrones y predicciones en la medicina, la economía, la gestión de recursos y la tecnología.
- En la salud ya se aplica IA en la detección temprana, el tratamiento de enfermedades y la personalización de necesidades específicas para el paciente.
- También existen avances en la educación a través del aprendizaje de los estudiantes.
- En el ámbito climático, la IA facilita la optimización de sistemas energéticos, así como en la investigación y desarrollo de nuevas fuentes de energías sostenibles, etc.
- En las empresas la IA se considera una herramienta trascendental para la innovación y los procesos ágiles y eficientes, especialmente en los recursos humanos, donde realiza tareas repetitivas para liberar de carga a los departamentos y enfocarse en las personas.
Cuando se alude a las sombras de la IA, los desafíos se ciernen sobre:
- Su impacto en el empleo, donde se hace necesaria “una redefinición de la fuerza laboral y el desarrollo de sistemas de educación y formación” de cara a las generaciones futuras.
- La ética en los que la IA puede presentar sesgos algorítmicos en selección y detección de talento hasta la forma en que se diseña y emplea, pudiendo afectar a los derechos individuales.
- La manipulación en procesos electorales o regímenes autoritarios, imágenes, etc.
- La privacidad ante la recolección de grandes volúmenes de información de la IA.
- La pérdida de control ante la invasión de dispositivos que funcionan con IA.
Ante este espectro de oportunidades y potentes desafíos, ¿es oportuno demonizar a la IA? En opinión del catedrático de filosofía, no debe demonizarse porque “la inteligencia artificial por sí sola no existe. Es solo un algoritmo, una secuencia de órdenes matemáticas, de manera que no es ni buena, ni mala”. Marina considera que, si la IA está controlada por las personas, “el control riguroso” debe realizarse sobre las personas.
Por ello, en esta entrevista conversacional, Marina realiza una distinción entre lo que representa la inteligencia generadora y la inteligencia ejecutiva.
- La inteligencia generadora: es la capa de muestra inteligencia que recibe pensamientos y emociones en automático.
- La inteligencia ejecutiva: es la inteligencia natural con las que las personas evaluamos y seleccionamos entre lo que nos aporta la inteligencia generadora.
La inteligencia generadora del cerebro humano funciona como el acrónimo ChatGPT, y al igual que la nuestra, necesita un filtro, por lo que a esta IA tenemos que aplicarle la inteligencia ejecutiva humana. De ahí que «la IA no debe funcionar en modo Auto-Pilot, sino en un Co-Pilot», se afirma en esta entrevista.
Marina señala que la adopción de una decisión no se puede realizar solo en base a información, sino “a partir de la valoración que hacemos a partir de nuestra experiencia”. En contra, añade que los sistemas inteligentes “solo manejan datos e información, pero no manejan valores. Y la información no es suficiente para la toma de decisiones”. Aquí es donde empieza a interactuar el pensamiento crítico.
¿Posible eclipse de nuestro pensamiento crítico?
Si en algo nos caracterizamos como seres humanos es en la posibilidad de evaluar argumentos y someterlos a un juicio ético y moral; resolver problemas de forma creativa, y adoptar decisiones conforme a evidencias. Ahora considerando que las máquinas pueden resolver tareas que son propias de los humanos, a las que se añade el aprendizaje, una adaptación y toma de decisiones, surge la duda de si la IA podría llegar a adueñarse de nuestra habilidad de crítica de manera autónoma.
La IA carece de consciencia, empatía y juicio moral que son las que guían al pensamiento crítico en el humano. Por muy avanzada que sea esta inteligencia, dice Marina que, “su pensamiento está limitado por instrucciones programas”, por lo que “no puede igualar la complejidad del razonamiento humano”.
Para este filósofo la IA hay que verla como una herramienta que “puede complementar y amplificar nuestras habilidades cognitivas” y asegura que la clave radica en “una educación y formación continuas que enfaticen el pensamiento crítico, la creatividad y las habilidades interpersonales” porque a largo plazo hay que asegurar que las nuevas generaciones pueden trabajar junto a la IA y no ser sustituidos por ella.
Lo más importante, en opinión de José Antonio Marina, es alcanzar “una convivencia positiva entre una inteligencia natural con una inteligencia artificial” que avanza impasible, a modo de una “inteligencia expandida” empleada de forma sabia. Por este motivo, este experto se decanta a favor de fomentar el pensamiento crítico de los humanos como si se tratase de una “vacuna necesaria” para combatir la manipulación, el fanatismo o incluso el adoctrinamiento.
Necesidad de preservar la atención ejecutiva
La tecnología digital nos invade por todas partes lo que dificulta la concentración. En esta conversación este catedrático expone que el intervalo de atención promedio se ha reducido de 12 segundos en 2000 a 8 segundos en 2015. Este dato resulta alarmante y según el Manifiesto OFF, una iniciativa que conciencia sobre los efectos de la digitalización sin límites, los humanos nos encontramos en “un desaprendizaje” de funciones como la memoria, la concentración, el razonamiento o la capacidad crítica.
Según Marina este hecho abre las puertas a “la persuasión del poder y la manipulación”, y asegura que “hemos subcontratado el pensamiento de los demás porque es más cómodo, y, sin embargo, la atención es el eje de la inteligencia”. Así comenta que la atención humana se está volviendo “automática” como la de los animales que se alertan ante cualquier señal estridente.
“Eso ahora se está debilitando, no la atención automática, que funciona como siempre, sino la atención ejecutiva, la capacidad de poder poner atención en lo que yo decido”, afirma el pensador. Pero sin esta capacidad de atención, no se puede aprender: “Y quien no tenga capacidad de atender y esté pendiente solo de los estímulos, podría correr el riesgo de que quien maneje esos estímulos, maneje su conducta, limitando su libertad”.
Por todo ello, Marina asevera que “la clave está en nuestro pensamiento crítico para dirigir la atención hacia donde queremos y no hacía donde un gran mentalista nos conduce para influir en nuestras ideas”.
Y así el pensador da respuesta sobre la posible delegación en las máquinas sobre nuestra capacidad de pensamiento: “El problema no hay que buscarlo en herramientas tecnológicas, sino en dos cosas que ponen en peligro nuestra inteligencia crítica, como la pereza y la cobardía”. Explica que nuestra mente puede conocer los datos y eso puede satisfacernos porque “no necesitamos saber cómo funciona nuestro móvil, solo necesitamos saber usarlo”.
En este sentido, Marina alerta que se está produciendo un exceso de “felicidad fácil”, que puede llegar a desincentivar nuestra capacidad de esfuerzo y aprender. Y de esta forma, establece un paralelismo con la IA que podría producir un efecto “diálisis mental” y de dependencia con el que perdemos esa libertad de crítica.
Criterio de evaluación frente a la IA
Cuando se trata de verificar información o dar con la mejor solución a algún problema, Marina alega que existe la necesidad de “apostar por la verdad” y de introducir “sistemas de verificación” para no caer en el engaño. Aprendizaje que debe introducirse en la educación española a edades tempranas.
Estima que hay que otorgar herramientas intelectuales, emocionales y éticas para que puedan “permanecer en buenas condiciones de tomar decisiones”. A ello añade también “habilidades de comprensión, argumentación y percepción de las cosas” para concluir que hay que esforzarse en “trabajar el pensamiento crítico porque muchas veces no es la opción fácil”.
En este ámbito, Marina comenta como ejemplo la forma en la que los sistemas GPT son capaces de generar expresiones novedosas con entrenamiento como los seres humanos, y albergan la capacidad de transformar y reconocer fácilmente patrones nuevos: “Las máquinas manejan una gran cantidad de información, que además redactan bien y organizan perfectamente. Y esto es muy sorprendente ya que la máquina no entiende lo que está haciendo, porque lo único que hace es calcular las probabilidades de que esa sea la buena respuesta. Por eso es necesario que previamente les digamos cuáles son las buenas respuestas y para eso es necesario establecer nuestro criterio”.
Toda tecnología debe incorporar un criterio de evaluación previo que esté generado por programadores. Por este motivo, ante el planteamiento de qué será capaz de realizar la IA, Marina dice que la respuesta será “lo que los diseñadores quieran que haga”. El problema se genera cuando ante un enorme banco de datos que emplea la IA en un programa sobre generación de texto, se nos plantea sobre si esa información es fiable o no. “Se trata de sistema opacos donde no sabemos lo que han aprendido, del mismo modo que ocurre con el cerebro humano”, concluye el pensador.