A primera vista uno diría que el libro que quiero recomendar hoy tiene bien poco que ver con los temas que suelo tratar aquí, pero sí que lo tiene, sí. Me refiero a El libro del porqué, del filósofo y matemático israelí Judea Pearl, uno de los inventores de las redes bayesianas y otras técnicas muy presentes en el mundo moderno de la ciencia de datos y la computación.
El libro va principalmente de esas técnicas, o más bien del conjunto de técnicas que se emplean en el campo de lo que se viene a llamar «modelado causal» o «inferencia causal», aunque no se trata de un libro técnico, sino más bien divulgativo, que habla de la historia y los principios de esos métodos en el mundo de la estadística y otras ciencias.
La ciencia del porqué y el poder de la imaginación
Esa historia se narra como la de una larga batalla contra «el tabú anticausal» de la estadística convencional, un tabú del que culpa en gran parte a nadie menos que Karl Pearson. Cualquiera que haya trabajado mínimamente en algún análisis estadístico conoce el coeficiente de correlación que lleva el apellido de Pearson, a quien muchos consideran el padre de los métodos matemático-estadísticos; y también él, se queja Pearl, elevó al estatus de dogma la máxima de que «las correlaciones no implican causas», impidiendo durante casi todo el siglo XX cualquier intento serio de investigar el porqué de las cosas, salvo en estudios que viniesen de la mano de pruebas controladas aleatorizadas.
En pocas palabras, si uno no hacía un experimento con una preparación complicada y costosísima, que implica intervenir en algunos aspectos a veces imposibles o inviables, adiós a toda esperanza de decir que una variable es causa de la otra. Un tabú que obstaculizó durante décadas el consenso médico de que fumar causa cáncer de pulmón, porque no es posible tomar a dos grupos equivalentes de personas y pedirles a unos que fumen y a otros que no para hacer un experimento. Y hoy en día, la indignante excusa usada por negacionistas del cambio climático provocado por el ser humano.
Pearl achaca este mal a una carencia del lenguaje formal usado en estadística para expresar las relaciones entre causas y efectos; en otras palabras, a la falta de símbolos matemáticos equivalentes al «porque» del lenguaje natural. En la «escalera de la causalidad» de la que habla metafóricamente para ilustrar su planteamiento filosófico, esto nos deja incapaces de elevarnos por encima del primer escalón. Esta es una escalera con tres niveles; el primero es el de la observación, y quienes estudian el mundo desde él solo pueden predecir qué sucesos se dan a la vez, pero no razonar por qué ocurre así.

El segundo nivel es el de la experimentación, la intervención. Solo ascendiendo a él, argumenta el autor, es posible responder con certeza que dos hechos están asociados no por mera casualidad o porque existen causas externas que afectan a los dos. Además, postula la existencia de un tercer escalón, al que llama el de la imaginación o los «contrafactuales», que se diferencia del anterior porque no trabaja solo con los resultados de escenarios en los que se ha intervenido manipulando algunas variables. A ese tercer escalón pertenecen las inferencias de lo que habría pasado si el escenario hubiera sido distinto, puede que de alguna manera que no sería posible experimentar.
Esta capacidad de preguntarse «¿qué habría pasado si…?» se presenta como la cualidad que diferencia el pensamiento causal del ser humano del de otros animales, que también pueden experimentar y así hacerse una idea superficial y práctica de cómo ocurren ciertas cosas, y qué tienen que hacer para conseguir algunos propósitos como comida o protección. Pero solo los humanos, de acuerdo con este planteamiento, somos capaces de llegar a un entendimiento profundo de la realidad, imaginando incluso cómo cambiarían las cosas en realidades alternativas. Pues tal como decía C. S. Lewis en un ensayo sobre las metáforas, «la imaginación es el órgano de la significación»: es imaginando lo posible y lo imposible como formulamos el significado de las cosas que observamos, como paso previo a discernir lo verdadero de lo falso, de tal modo que la imaginación «no es la causa de la verdad, sino su condición».
Por su parte Judea Pearl critica que no solo la estadística clásica, sino también los modelos actuales de inteligencia artificial están estancados en el primer escalón, y mientras sigan en él nunca podrán llegar a donde lo hace la inteligencia humana, por muchos datos que se le den. Pero esto no es algo nuevo; es solo la forma más moderna de un debate que se remonta a varios siglos atrás.
La larga guerra entre empiristas y racionalistas
Ya mucho antes de que se hablara de los big data y los comportamientos emergentes, había filósofos que comparaban la mente humana con una tabula rasa, un lienzo en blanco sin ideas innatas, en el que el conocimiento toma forma por la acumulación de percepciones y experiencias. El más asociado a esta idea, que no el primero en enunciarla, fue el inglés John Locke (1632‒1704), por las afirmaciones en su Ensayo sobre el entendimiento humano (especialmente al principio del libro II). Y también en aquel tiempo esas ideas empiristas eran contestadas por los defensores del racionalismo, como René Descartes o Gottfried Leibniz, para quienes la razón era un don innato en los humanos, mejorado pero no creado por la experiencia.
Este debate se ha mantenido desde entonces, cambiando de forma según los intereses científicos y filosóficos de cada momento. En general, la secularización de la era moderna ha jugado a favor de las ideas empiristas, pues la tabula rasa de Locke y otros conceptos relacionados parecen más acordes con una naturaleza que no está dirigida por un Creador, y en la que el ser humano no ha sido planificado, sino que es el resultado, asombroso pero casual, de la misma evolución que ha dado lugar al resto de formas de vida.

Muchas corrientes filosóficas que destacaron en el siglo XX, como el positivismo, el materialismo o el relativismo son, de un modo u otro, herederas del empirismo del siglo XVII. Y esto se ha notado mucho en los planteamientos de la psicología, que como cualquier otra ciencia, ha estado muy condicionada por la filosofía imperante cada momento.
La primera mitad del siglo XX fue la época dorada del conductismo, una corriente tan exitosa que trascendió a la cultura popular. ¿Quién no conoce la historia del perro de Pávlov, el gato de Thorndike y otros experimentos conductistas, que hasta nos explicaban en la escuela para enseñarnos cómo cualquier comportamiento se puede adquirir mediante la repetición de recompensas y castigos? ¿Y no es esa teoría en esencia una variación de la tesis empirista, de que todo nuestro intelecto se construye por acumulación de observaciones y experiencias?
Y por supuesto también el lenguaje, como todo lo relacionado con la mente humana, ha sido objeto de esas teorías. En 1957, el eminente psicólogo conductista B. F. Skinner publicó un tratado sobre la conducta verbal, en el que exponía sus teorías sobre cómo el lenguaje se adquiere también por condicionamiento, igual que las palomas y ratones de sus experimentos adquirían la capacidad de resolver laberintos y manejar mecanismos sencillos.
El lingüista Noam Chomsky, sin embargo, dio al traste con las expectativas de Skinner de convencer al mundo de su teoría conductista del lenguaje. En 1959 Chomsky publicó una crítica demoledora del libro de Skinner, lo que se considera uno de los primeros hitos de la «revolución cognitiva» de la segunda mitad del siglo XX. Un movimiento que, en cierto modo, supuso una reivindicación de los principios del racionalismo, dotados ahora de un tratamiento científico.
¿IA-hora qué?
Parecería que los grandes modelos de lenguaje que están revolucionando hoy el mundo de la inteligencia artificial suponen un revés a los planteamientos racionalistas. Al fin y al cabo, esos modelos son una puesta en práctica de aquel concepto de la tabula rasa: enormes redes de conexiones aleatorias, que e van alterando progresivamente a base de procesar datos y más datos, hasta que acaban interactuando con la información de una forma que parece realmente inteligente.
Pero hace ya dos años escribí otra entrada en la que discutía el autoengaño al que nos prestamos cuando conversamos con estos artificios parlantes, cuyo discurso tiene la apariencia de inteligente gracias al tratamiento estadístico de cantidades disparatadas de textos. Y la reciente bofetada que ha dado China a los gigantes tecnológicos americanos con la irrupción de DeepSeek no hace más que confirmar el obsceno consumo de recursos que necesitan esas redes neuronales para procesar tamaña cantidad de información.
Volviendo a las ideas que cuenta Judea Pearl en su libro, como decía antes, puede que ninguna red neuronal basada en la mera digestión de datos, por muchos que sean, alcance la capacidad de compararse de verdad la inteligencia humana. Con todo, no es que Pearl descarte la posibilidad de que en el futuro se llegue a la verdadera inteligencia artificial. De hecho se muestra optimista respecto a ello, con una esperanza basada en un lenguaje formal capaz de expresar las relaciones causales y los contrafactuales.
Esta «revolución causal» que celebrar Judea Pearl ha llegado más tarde, pero en cierto modo es para la ciencia de datos lo que la revolución cognitiva abanderada por Chomsky supuso para la lingüística y otras disciplinas. En ambos casos es un triunfo del racionalismo, la reivindicación de la capacidad de pensar, imaginar y expresar las ideas y fantasías mediante el lenguaje como algo fundamental, no como una amalgama de datos y experiencias. Algo que tenemos desde que nacemos, y define quiénes somos.
Comentarios
Publicar un comentario
Gracias por tu comentario.