Il mito efficientista

Quest’epoca sta condannando il principio di causalità all’irrilevanza.

Questo è il frutto del prevalere, in ogni campo, della statistica, fiorita rigogliosamente da alcuni decenni grazie alla capacità dei computer di immagazzinare miliardi di dati, di confrontarli, incrociarli e ottenerne statistiche mastodontiche. E più grande è la mole dei dati di cui si dispone, più veridico sarà il risultato del calcolo statistico.

Ma perché questo fenomeno condanna all’irrilevanza il principio di causalità?

Se al fenomeno A consegue il fenomeno B in una percentuale di casi giudicata sufficiente (statisticamente significativa, si dice), questo basta a collegare i due fenomeni, anche qualora non si riesca a stabilire logicamente un nesso di causalità fra A e B.

Questa impostazione mi pare si stia imponendo in una serie di campi, non ultima la medicina, ove la evidence based medicine, che della statistica fa il suo strumento d’indagine principale, non cerca nessi causali, ma rapporti di probabilità fra fenomeni, senza porsi il problema della causalità, ovvero del come due eventi siano logicamente collegati – secondo un nesso causalità appunto.

Porsi il problema del perché, del come, in una parola del nesso causale che legherebbe A a B (e di eventuali altri fattori che possono interferire, rendendolo più o meno efficace) viene visto, bene che vada, come ricerca puramente speculativa e dunque come perdita di tempo. Se un numero, una probabilità contempla già la causalità biologica, ed in esso siano implicitamente contemplati anche i possibili fattori favorenti o e quelli al contrario interferenti perché perdere tempo a cercare meccanismi causali, logicamente plausibili? C’è già il dato statistico che lega i due fenomeni secondo una percentuale di probabilità indiscutibile, e tanto basta, almeno sul piano operativo, a trarne le debite conseguenze.

Ovviamente si possono affinare i calcoli statistici all’infinito: si sa, ad esempio che dall’evento A segue il problema B nel 90 % dei casi; ma il nostro paziente soffre di una ben determinata malattia e in questi casi dall’evento A segue B solo nel 76 % dei casi: quella malattia interferisce dunque in qualche modo in quella concatenazione di eventi che da A porta a B, rendendola più improbabile (chissà perché? E chissà come avviene tale interferenza? Ma questo non interessa!); inoltre quel paziente ha il gene Z, e in pazienti che presentino quell’allele Z da A segue B addirittura nel 99% dei casi, perché quel gene, al contrario, favorisce la catena di eventi che da A porta a B  (di nuovo: il perché, il come e con quale meccanismo ciò avvenga non interessa): facciamo ora quattro calcoli rigorosamente statistici, teniamo conto del dato generale, della malattia di quel paziente e del fatto che il paziente presenta l’allele Z e sapremo che in quel preciso paziente da A seguirà B con una probabilità del 89%!

Ecco, a cosa ci serve, a questo punto capire come e perché?

Tutto questo può agevolmente essere trasporto anche in campi totalmente diversi da quello medico: se nell’ambito del marketing si vede che statisticamente gli acquisti di macchine sono più frequenti il mercoledì pomeriggio, questo basta per indirizzare il mercato in modo da fare meglio affari, indipendentemente dalla causa di questo fenomeno: inutile perdervi tempo a pensarci, affrettiamoci a vendere più macchine il mercoledì pomeriggio.

Ovviamente questa impostazione è possibile da quando disponiamo di elaboratori capaci di immagazzinare miliardi di dati, di collegarli e farci quasi istantaneamente complicatissimi calcoli statistici.

In quest’ottica possiamo interpretare il principio di causalità come un brillante strumento che permetteva di cortocircuitare questi complicati calcoli: un cervello incapace di memorizzare, confrontare e elaborare milioni di dati non poteva che stabilire, dopo qualche osservazione empirica, un nesso di causalità fra due fenomeni che, se appariva logicamente plausibile, veniva dato per acquisito e permetteva di interrompere l’osservazione e rivolgere la mente ad altro.

Ovviamente l’errore è, in questi casi dietro l’angolo, e nessi causali sbagliati ne sono stati formulati tanti. Molto più sicuro, e dunque efficiente, stabilire un nesso consequenziale (in senso puramente temporale) fra fenomeni osservati miliardi di volte, stabilire una percentuale di probabilità che all’evento A consegua l’evento B piuttosto che scoprire dubbi nessi causali.

Ovviamente con questa visione verrebbe a cadere la distinzione fra certezza e probabilità: ogni consequenzialità sarebbe corredata da un grado di probabilità (un oggetto lasciato andare cade a terra: probabilità 99,99 periodico %; Tizio beve acqua e spegne la sete, probabilità 99 %; Caio calcia la palla e fa gol, probabilità 15 % ecc). Probabilità calcolate per ogni singolo individuo tramite il profilo tracciato dal suo PC che ne riflette perfettamente azioni, successi, risultati, qualità, difetti ecc.

Ma saputo che il fenomeno A segue con estrema probabilità l’evento B, e riorganizzatisi di conseguenza, cosa ci serve sapere se da A segua SEMPRE B, ovvero se ci sia un effettivo nesso causale o meno? Certo, ci saranno casi in cui da A non seguirà B (il calcolo è sulle probabilità, non sulle certezze), ma questo non scuote le fondamenta di questa nuova impalcatura mentale: da sempre alcuni sporadici insuccessi sono considerati effetti collaterali inevitabili di qualsiasi teoria o sistema, ovvero un prezzo equo da pagare per il buon funzionamento globale di un sistema efficiente. E soprattutto, a cosa servirà sapere PERCHE’ ad A segua B?

Insomma, oggi con i computer potenti, il principio di causalità è condannato all’irrilevanza.

Mi sembra fra l’altro che questa impostazione ricalchi perfettamente quella di Hume, secondo il quale anche se due fenomeni si accompagnano costantemente l’uno all’altro, non potremo mai sapere se sono legati effettivamente reciprocamente da un nesso di causalità. Potremo solo dire: finora ho sempre visto che da A segue B, ma non posso prevederlo con certezza anche per il futuro.

Ecco dunque una nuova declinazione della vittoria dell’empirismo inglese sul razionalismo continentale.

Come questo cambierà il cervello degli uomini ed i suoi meccanismi ragionativi è ovviamente difficile da prevedere, anche se già emerge qualche allarmante fenomeno: gli studenti di medicina accolgono di solito con indifferenza le spiegazioni fisiopatologiche – ovvero quelle spiegazioni che permettono di capire come da A, evento iniziale della malattia, si passi a B e poi a C fino a giungere, secondo una catena di nessi causali, ai sintomi e segni della malattia - mentre imparano con entusiasmo i risultati degli ultimi lavori scientifici che documentano alcuni fenomeni esclusivamente si base statistica, senza domandarsi minimamente il perché di quei fenomeni.

Certamente perderemo la capacità speculativo-filosofica, e chissà quanto altro con essa. E certamente il ragionamento in quanto tale perderà il suo fascino: basterà praticamente sapere che A comporta quasi sempre B e ci si regolerà di conseguenza. E con la categoria della causalità cadranno magari anche altre categorie kantiane.

Il mondo votato al mito efficientista non necessiterà più di considerazioni sul perché.

Il perché diventerà una domanda obsoleta, vana e forse considerata retrograda.