El coeficiente que no protege | ORH
Inteligencia: el coeficiente que no protege

En 1945, el psicólogo estadounidense Gustave Gilbert realizó tests de inteligencia a los acusados en los juicios de Núremberg y los resultados desconcertaron a quienes esperaban encontrar la firma cognitiva del mal: Hermann Göring, 138 puntos; Albert Speer, 128; Rudolf Hess, 120. La media del grupo superaba en más de 30 puntos la media poblacional. Ninguno era un bruto y, sin embargo, todos habían participado, con distintos grados de responsabilidad, en el mayor sistema de exterminio sistematizado de la historia moderna. Con método, con logística, con infraestructura… todo pensado para funcionar. Y funcionó hasta que, al acabar la guerra, se hizo evidente lo que muchos habían elegido no ver. Ellos nunca se percibiron como monstruos en el espejo porque hicieron lo que consideraron adecuado para toda una nación. Su capacidad para concebir el mal como el mejor bien les nubló ante cualquier duda ética y esa ausencia de autorreflexión resuena hoy con fuerza en torno a la IA y a sus mesías. El objetivo ahora no es exterminar, pero ¿y si lo de querer igualar o incluso superar las capacidades humanas acaba siendo una suerte de exterminio?

IDEAS CLAVE
  1. El coeficiente intelectual mide procesamiento, abstracción y resolución de problemas. No mide compasión, juicio ético ni responsabilidad colectiva.
  2. La media de CI de los acusados en Núremberg superaba en más de 30 puntos la media poblacional. La inteligencia técnica no es una salvaguarda moral.
  3. Esta revolución no extiende las capacidades humanas como hicieron la máquina de vapor o la electricidad: aspira a igualarlas o superarlas.
  4. Aristóteles distinguió tres saberes: episteme, techne y phronesis. El último, el juicio aplicado, está ausente del currículo de la mayoría de los líderes.
  5. Las grandes universidades producen episteme y techne porque eso es lo que el mercado compra. La paideia, la formación integral del juicio, ha quedado fuera del canon.
  6. La pregunta ya no es si quienes están al frente de las grandes empresas de IA son personas inteligentes —lo son—, sino si son personas sabias.
Juicios de Núremberg · Test de inteligencia (1945-1946)
Acusado Cargo CI
Hjalmar Schacht Ministro de Economía 143
Arthur Seyss-Inquart Comisario del Reich para los P. Bajos 141
Hermann Göring Comandante de la Luftwaffe 138
Karl Dönitz Gran Almirante de la Kriegsmarine 138
Franz von Papen Vicecanciller del Reich 134
Albert Speer Ministro de Armamentos 128
Alfred Rosenberg Ministro de los Territorios del Este 127

Fuente: Gilbert, G.M. (1947). Nuremberg Diary. Farrar, Straus and Company.

El mito de la inteligencia como virtud

El coeficiente intelectual mide la capacidad de procesamiento, de abstracción y de resolución de problemas complejos. No mide la compasión, ni el sentido de responsabilidad colectiva; tampoco mide la capacidad de resistir la tentación de usar la eficiencia como un fin en sí misma, ni de innovar en contra de la sostenibilidad humana. Los altos mandos nazis no fracasaron cognitivamente, en absoluto; optimizaron con precisión quirúrgica los recursos logísticos, industriales y humanos disponibles para un proyecto en el que creían y que compartían. Paradójicamente, su competencia técnica e intelectual no les llevó a preguntarse por la ética de sus fines sino, muy al contrario, les ayudó a racionalizarlos.

El CI como señal de confianza en las capacidades de una persona es una trampa que viene de largo y que ahora opera con fuerza renovada en el contexto de la inteligencia artificial. Al frente de su advenimiento como tecnología industrializable están personas con una visión, una misión y un propósito declarados: construir una inteligencia artificial que, según ellos mismos sostienen, «beneficiará a toda la humanidad» o evitará que la propia tecnología la dañe.

Aunque no todos sus creadores tengan una trayectoria académica completa —Altman y Brockman no terminaron sus carreras universitarias—, el núcleo técnico de sus arquitectos es extremadamente intenso en coeficientes intelectuales altos. Ni Anthropic ni OpenAI nacieron en garajes ni con pocos medios, sino como entidades altamente capitalizadas. Las personas que deciden cómo funcionará la IA y para qué se usará son, en su mayoría, individuos con credenciales extraordinarias, capacidad técnica fuera de lo común y una confianza en su propio juicio que, de tan segura, asusta.

La analogía con cualquier proyecto totalitario del siglo XX es incómoda pero ¿es útil? Pensemos: toda visión que se presenta como necesaria para el conjunto de la humanidad tiende a hacer ver que la decisión que se ampara en una declaración de bondad para todos expide de facto su pasaporte ético. Pero recordemos también la idea, harto repetida, de por qué esta revolución industrial actual es distinta a las anteriores: porque la máquina de vapor, la electricidad y la informática extendieron las capacidades humanas, mientras que la inteligencia artificial generativa y la predictiva, tal como las definen quienes las construyen, aspira a igualarlas o superarlas. No quieren cambiar qué hacemos sino redefinir quién lo hace. El cómo, en el fondo, es secundario y no es cuestión sólo de aprender a trabajar codo con codo con copilotos y agentes. El cómo es con qué tipo de conocimiento, y ahí es donde todos ellos fallan. Y el resto, nosotros, también.

Si hubiera dependido de mí, habríamos dejado la IA en el laboratorio más tiempo. El enfoque científico más puro habría sido tomarse las cosas con más calma.

Demis Hassabis · CEO de Google DeepMind.
Lo que no se enseña en el MIT ni en Stanford ni en ninguna parte

Aristóteles hizo una distinción de tipos de conocimiento que los siglos no han logrado mejorar:

  • Episteme, el saber teórico, demostrativo, el de las verdades necesarias.
  • Techne, el saber hacer, la habilidad para producir cosas.
  • Phronesis, que se traduce habitualmente como prudencia o sabiduría práctica, pero que designa algo más preciso: la capacidad de deliberar correctamente sobre lo que es bueno y conveniente para la vida humana en su conjunto, no sólo para un fin particular.

La phronesis no se aprende memorizando principios, se forma en la experiencia, en la exposición al conflicto moral real, en el trato sostenido con lo que los griegos llamaban la polis, la comunidad de iguales que se gobiernan a sí mismos.

Lo que mide el test de inteligencia que Gilbert administró en Núremberg —y lo que miden la mayoría de los procesos de selección de las grandes empresas tecnológicas y no tecnológicas— es una combinación de episteme y techne: capacidad de abstracción, velocidad de procesamiento y aptitud para la resolución formal de problemas. Lo que no mide, porque no puede medirse con una escala de puntos, es la phronesis, a pesar de que es la que determina si alguien con poder técnico excepcional lo ejerce con responsabilidad hacia los demás o lo optimiza en función de sus propios fines. ¿Cuántos de los líderes de todo tipo saben siquiera lo que es la phronesis? Ya sería mucho saber cuántos tienen juicio… o simplemente cuántos lo tienen, saben y quieren aplicarlo. Porque eso es la phronesis, juicio aplicado.

Tres formas de conocimiento — Aristóteles, Ética a Nicómaco, libro VI
Episteme
ἐπιστήμη
Conocimiento teórico. Verdades necesarias y demostrables. Lo que no puede ser de otra manera.
HoyCiencias formales, matemáticas, lógica computacional.
Techne
τέχνη
Saber productivo. Habilidad para fabricar o construir. Orientado al objeto, no al agente.
HoyIngeniería, programación, arquitectura de sistemas.
Phronesis
φρόνησις
Sabiduría práctica. Capacidad de deliberar sobre lo bueno para el ser humano. No se transmite, se forma.
HoyAusente del currículo de muchos líderes empresariales y creadores de IA.
La destrucción silenciosa de la paideia

Los griegos también tenían otro concepto para el proceso educativo que va más allá de la instrucción técnica: la paideia. No era simplemente enseñar contenidos sino formar de manera integral al ciudadano, su carácter, su sentido de pertenencia a una comunidad con obligaciones mutuas, su capacidad de escuchar, de ceder, de reconocer los límites de su propio juicio… Platón dedicó la mayor parte de su obra a pensar cómo garantizar que quienes gobiernan hayan pasado por ese proceso formativo completo, convencido de que, sin él, el gobernante inteligente es más peligroso que el mediocre porque tiene mayor capacidad de hacer daño con convicción. Los directivos de empresa también gobiernan y si Platón estuviera vivo a muchos les recomendaría una intensiva y larga instrucción en paideia.

El sistema educativo que produce a los líderes actuales lleva tiempo decreciendo el peso del aprendizaje integral. Las grandes universidades que nutren a Silicon Valley —y todas en general— son extraordinariamente eficaces produciendo episteme y techne porque es lo que les compra el mercado: la idea de que un futuro CEO, CFO, CCO, CIO o un mero arquitecto de sistemas de IA deba haber reflexionado en serio sobre el mundo grecorromano, Kant, el colonialismo, las grandes guerras, las revoluciones industriales o incluso el origen del Universo no forma parte del canon de competencias que el mercado recompensa.

El resultado es una generación de constructores extraordinariamente competentes que operan con marcos éticos rudimentarios y a menudo reducidos a versiones simplificadas del utilitarismo, al libertarismo del mercado como telón de fondo implícito o a la vaga convicción de que «la tecnología es neutral». Pocos están equipados para manejar la escala y la irreversibilidad de lo que están construyendo y no por falta de coeficiente de inteligencia. El problema no es que los líderes, tecnológicos o no, sean ignorantes en sentido técnico, es que son ignorantes, en muchos casos, en el único sentido que a Sócrates le importaba.

Educar para la inteligencia, en el sentido de los clásicos, no significa añadir una asignatura de ética al plan de estudios de ingeniería, sino formar personas capaces de anteponer el bien común a la eficiencia de sus propios sistemas.

En 1963, la periodista Hannah Arendt asistió como corresponsal del The New Yorker al juicio a Adolf Eichmann y verbalizó lo que vio en su archiconocida «banalidad del mal». No se refería a que el oficial alemán fuera estúpido (era metódico y eficazmente orientado a resultados), sino más bien a que era un hombre que había sustituido la deliberación moral por la ejecución procedimental y que era incapaz de ponerse en el lugar de nadie salvo en el de quien tuviera su misma visión. Su inteligencia operativa funcionaba a pleno rendimiento mientras su capacidad para someter sus actos a examen parecía suspendida. Ni rastro de duda sobre las consecuencias ni el alcance, largo alcance, de sus actos.

Ya he dejado de preguntarme si quienes están al frente del diseño de sistemas de IA son personas inteligentes porque lo son, lo que me pregunto es si son personas sabias. La sabiduría no se adquiere resolviendo problemas de optimización sino poco a poco, habitando la incertidumbre moral, exponiéndose a la duda, reconociendo los límites del propio saber, escuchando a quienes piensan distinto y tomando decisiones que no maximizan un indicador sino que intentan hacer justicia a la complejidad de lo humano. ¿Forma algo de esto parte del currículo de quienes hoy deciden nuestro futuro? ¿Y el de nuestras empresas? ¿Y el de la inteligencia artificial? Sinceramente, no lo sé. Lo pienso y me viene a la mente el que era Safety Research Lead de Anthropic, Mrinank Sharma, y que salió de allí con declaración pública en ristre y ahora vive volcado en aprender poesía. Ya van unos cuantos altos directivos que han renunciado aquejados de «fatiga ética».

He visto con frecuencia lo difícil que es dejar que nuestros valores gobiernen nuestras acciones. Lo he visto dentro de la propia organización.

Mrinank Sharma · Ex-Head of Safeguards Research en Anthropic.
¿Es el CI el problema? No, es creer que resuelve todos los problemas

Núremberg no resolvió el problema de la responsabilidad del poder técnico, lo condenó. Estableció que ni la competencia, ni el cumplimiento de órdenes ni la ignorancia eximen de la responsabilidad sobre los actos, pero no logró, ni se ha conseguido desde entonces, construir los mecanismos preventivos que impidan que la concentración de capacidad intelectual reproduzca una nueva arquitectura de irresponsabilidad.

Por supuesto, el contexto institucional actual no es comparable al de la Alemania de 1933, pero la velocidad del desarrollo tecnológico, que siempre supera a la de la respuesta regulatoria, ya empieza a causar estragos. Pensábamos que el riesgo crítico estaba en los sesgos cuando teníamos el riesgo inmediato llamando a la puerta en forma de despidos y sustituciones por IA. Posiblemente muchos de ellos sean la excusa a la deficiente gestión pasada y reciente, y hasta el economista jefe de Google, Fabien Curto Millet, dice ser escéptico con la ola de despidos con la IA por bandera: «Es más fácil decir eso que reconocer que tu producto no tiene encaje en el mercado». Pero, sea como fuere, la economía –»is the economy, stupid»– ya ha puesto a pleno rendimiento la maquinaria de la eficiencia como objetivo per sé, y mientras tanto, la regulación avanza lenta cuando el daño ya ha comenzado. La rendición de cuentas del III Reich fue nula hasta que las evidencias confirmaron los hechos consumados: la «salida» del sistema de millones de personas.

Ernst Janning: «Juez Haywood, la razón por la que le he pedido que viniera… Aquella pobre gente, aquellos millones de personas… Nunca pensé que se iba a llegar a eso. Debe creerme, ¡debe creerme!».

Juez Dan Haywood: «Herr Janning, se llegó a eso la primera vez que usted condenó a muerte a un hombre sabiendo que era inocente».

De la película «Vencedores o vencidos» · Dirigida por Stanley Kramer en 1961.


Fotografía: Cámara de gas del campo de concentración de Majdanek (Polonia). Copyright: MS, 2026.

CEO de ORH, plataforma de conocimiento e innovación en gestión estratégica de personas en las organizaciones creada en 2006. Es Licenciada en Periodismo y bajo la cabecera Observatorio de Recursos Humanos ha puesto en marcha proyectos como ORHIT-Observatorio RH de Innovación y Transformación, OES-Observatorio de Empresas Saludables, SFS-Empresas Saludables, Flexibles y Sostenibles e IA+Igual.

Compartir

Entradas relacionadas

SUSCRÍBETE AL BOLETÍN

Suscríbete a nuestro boletín y ejerce la libertad de aprender.

CONTACTA CON NOSOTROS

HAZ TU CONSULTA Y CONTACTAREMOS CONTIGO A LA MAYOR BREVEDAD​