Credits to Pixabay.com
17.04.2019
Susanna Arcieri

Brain, intuition and probability

Second Part. Gerd Gigerenzer’s thesis

Issue 4/2019

Non mi fido molto delle statistiche,
perché un uomo con la testa nel forno acceso
e i piedi nel congelatore
statisticamente ha una temperatura media.
 
Charles Bukowski

After reviewing the position of those who state that the human mind – which is physiologically inclined to follow intuitive thinking more than criteria inspired by pure rationality – would not be suitable for performing statistical calculations and probability estimates[1], we now focus on a partially different point of view, namely that offered by Gerd Gigerenzer, a German cognitive psychologist, a well-known expert on risk management and analysis of decision-making processes in contexts of uncertainty.

According to Gigerenzer, the reason why we are often wrong, when we are called to perform statistical calculations, does not lie in our cognitive limits but depends essentially on our ignorance about risk.

 

SUMMARY: 1. Risk and uncertainty. – 2. Some classic errors of judgment. – 2.1. Weather forecasts. – 2.2. Relative and absolute risks. – 2.3. The illusion of certainty (or “zero risk”). – 2.4. The turkey illusion.

 

To read the Reflection, click on “open file”.

1. Rischio e incertezza.

Secondo Gerd Gigerenzer, scienziato cognitivo e direttore del Max Planck Institute for Human Development di Berlino, sarebbe sbagliato parlare di “scarsa predisposizione” del nostro cervello nei confronti della statistica.

Non sarebbe infatti corretto affermare, come da tempo affermano i suoi colleghi Daniel Kahneman, Amos Tversky, Paul Slovic[2] e molti altri, che noi esseri umani, per come siamo fatti e per come funziona il nostro cervello, siamo incapaci di ragionare in termini di probabilità. Secondo Gigerenzer, non siamo né ottusi né stupidi: siamo solo profondamente ignoranti, specie per tutto ciò che attiene alla stima dei rischi che ogni giorno corriamo[3].

C’è però una buona notizia: esiste infatti una soluzione a questo problema, che è quel che Gigerenzer definisce  l’«alfabetizzazione al rischio»[4]. Dobbiamo cioè metterci a studiare, e a lavorare sodo, per “farci una cultura” in materia di rischio.

Per prima cosa, però, che cos’è esattamente il rischio?

Gigerenzer spiega che è corretto parlare di rischi solo quando abbiamo a che fare con contesti in cui «tutto è noto con certezza, probabilità comprese»[5]. È il caso, ad esempio, delle lotterie, delle previsioni del tempo o delle slot-machine.

Credits to Pixabay.com

Situazioni, cioè, nelle quali è sempre perfettamente possibile calcolare in modo corretto i rischi a cui andiamo incontro, perché abbiamo tutte le informazioni che ci occorrono. Il problema è solamente che queste informazioni sono espresse sotto forma di probabilità e, molto spesso, le persone conoscono ben poco di probabilità.

Nei contesti di rischio, abbiamo allora bisogno di rafforzare la nostra capacità di pensare in termini statistici e logici; il che significa arrivare a padroneggiare – almeno – i rudimenti di alcune fondamentali discipline: prima di tutto, la matematica cd. “della certezza”, ossia la geometria e la trigonometria, ma anche (e soprattutto) la matematica cd. “dell’incertezza”, che è appunto la base del pensiero statistico. Inoltre, occorrerà apprendere anche le fondamentali nozioni della biologia e soprattutto della psicologia, che altro non è se non «la cosa che dà forma ai […] timori e desideri»[6], i quali a loro volta influenzano profondamente il nostro modo di percepire la realtà e di assegnare probabilità ai singoli eventi.

In effetti, l’idea di accostare parole come “certezza” e “precisione” alla nozione di “rischio” può suonare a tratti paradossale. Specie se si considera che, nel linguaggio comune, il termine rischio è spesso inteso proprio come sinonimo di incertezza.

E qui sta il punto (e il fraintendimento) fondamentale, per Gigerenzer: laddove c’è rischio non potrà mai esserci incertezza[7]. Se nel mondo del rischio, infatti, sono note tutte le alternative possibili e le probabilità di ciascuna di esse, ed è quindi possibile (e sensato) impegnarsi a fare calcoli e stime, nel mondo dell’incertezza – che è quello, ad esempio, delle relazioni tra persone, della salute, o della speculazione in borsa – accade esattamente l’opposto: non sappiamo quali sono le alternative, né conosciamo le relative probabilità.

È chiaro allora che, in questo caso, la logica non ci aiuta («in un modo incerto il pensiero statistico e la comunicazione dei rischi non bastano, da soli»)[8] e per fare una buona scelta ci serviranno altri strumenti; in particolare, ci occorrono buone intuizioni[9].

Pensare che ogni problema si risolva con le probabilità è un sogno bellissimo; però, sarebbe come usare solo il martello per tutte le riparazioni che si fanno in casa

Ed ecco un’altra fondamentale fondamentale differenza tra il pensiero di Gigerenzer e quello di Kahneman, rappresentata dal grado di fiducia riposto nel pensiero intuitivo e in particolare nelle euristiche (ossia le diverse “scorciatoie di pensiero” che imbocchiamo in modo intuitivo, ogniqualvolta siamo costretti a decidere rapidamente, senza avere il tempo per pensare e fare valutazioni ponderate).

Kahneman, come noto, spiega il funzionamento della mente umana distinguendo due sistemi di pensiero: da un lato, il “sistema uno”, ossia il pensiero intuitivo, che opera rapidamente e tende a saltare subito alle conclusioni grazie, appunto, alle euristiche; dall’altro lato, il “sistema 2”, più lento ma più razionale, che a differenza del primo richiede un notevole dispendio di energie mentali per poter funzionare[10]. Se per Kahneman la principale causa dei nostri errori di giudizio risiede proprio nel modo di funzionare del “sistema uno” – che, nel suo essere rapido e impulsivo, oltre che viziato dalle emozioni, non consentirebbe di prendere decisioni ottimali –, Gigerenzer è di tutt’altro avviso: egli ripone al contrario una grande fiducia nel pensiero intuitivo dell’uomo, tanto da ritenere che il sistema 1 sia una guida addirittura più affidabile del più lento e rigoroso “sistema 2”.

Abbiamo bisogno, dopo quella probabilistica, di una seconda rivoluzione che prenda l’euristica sul serio e dia finalmente al genere umano la capacità di affrontare l’intera gamma dell’incertezza

«La maggior parte del nostro cervello è inconscia, e senza la vastissima esperienza in essa immagazzinata saremmo perduti. L’intelligenza calcolante può anche farcela con i rischi conosciuti, ma di fronte all’incertezza è indispensabile l’intuizione»[11].

Ecco allora che proprio quelle scorciatoie di pensiero, le euristiche spesso criticate da Kahneman e Tversky, diventano per Gigerenzer uno strumento prezioso per prendere decisioni non solo «rapidamente, senza bisogno di tante informazioni», ma anche «in modo assai accurato»: le euristiche infatti – specie le «euristiche intelligenti»[12] – possono essere «più sicure e precise di un calcolo»[13], sostiene lo scienziato.

Di più. Gigerenzer si spinge addirittura al punto di auspicare una vera e propria rivoluzione euristica. «Abbiamo bisogno, dopo quella probabilistica, di una seconda rivoluzione che prenda l’euristica sul serio e dia finalmente al genere umano la capacità di affrontare l’intera gamma dell’incertezza»[14].

2. Alcuni classici errori di giudizio.

Insomma, secondo Gigerenzer, sia che ci troviamo in contesti di rischio, sia abbiamo a che fare con l’incertezza, siamo, in ogni caso, perfettamente attrezzati a prendere le decisioni giuste. Si tratta solo di scegliere l’attrezzo adatto.

«Io personalmente vedo la mente come una cassetta degli attrezzi che ha un valore di adattamento e di attrezzi ne contiene molti, […] ognuno con uno scopo suo. Pensare che ogni problema si risolva con le probabilità è un sogno bellissimo; però, sarebbe come usare solo il martello per tutte le riparazioni che si fanno in casa»[15].

Nondimeno, anche Gigerenzer – così come Kahneman, Tversky e gli altri studiosi –, dà ampiamente conto del fatto che a volte le valutazioni e i giudizi che formuliamo, sulla scorta sia dell’intuizione sia del pensiero razionale, si rivelano erronei.

Se ciò accade, però, non è a causa della struttura del nostro cervello: come si è detto, è la nostra ignoranza a farci cadere vittima di queste “illusioni cognitive”, portandoci a ignorare informazioni numeriche fondamentali (ad esempio la frequenza di base)[16] o a confondere concetti statistici molto diversi (ad esempio rischi assoluti e rischi relativi, falsi positivi e falsi negativi) e finendo così per viziare, in un senso o nell’altro, le nostre stime probabilistiche.

Ad esempio?

 

2.1. Le previsioni del tempo.

Credits to Pixabay.com

Gigerenzer prende le mosse dal caso più banale – più che un esempio, quasi una provocazione –, che è la stima del rischio di pioggia.

«Una volta», scrive Gigerenzer, «qualcuno che curava le previsioni meteorologiche su una TV americana fece questo annuncio: “la probabilità che piova sabato è del 50%. Anche la probabilità che piova domenica è del 50%. Perciò, la probabilità che piova durante il weekend è del 100%”». Una conclusione ridicola? Forse un po’, «ma quando nelle previsioni meteorologiche si annuncia una probabilità del 30% che domani piova, sapete che cosa significa? 30% di che cosa? Io abito a Berlino, e per la maggioranza dei berlinesi vuol dire che domani pioverà per il 30% del tempo, cioè per sette-otto ore; ma secondo altri significa che pioverà sul 30% del territorio cioè più probabilmente no che sì a casa loro. Invece, per la maggioranza dei newyorkesi tutte e due le cose sono insensate: secondo loro piove il 30% dei giorni per i quali si fa l’annuncio, per cui la cosa più probabile è che domani non piova affatto. […] Come ha detto una signora newyorkese: “So che cosa vuol dire 30%. Tre meteorologi pensano che pioverà e sette no”»[17].

Insomma, quando siamo chiamati a calcolare le probabilità in contesti di rischio, ci capita spesso di commettere errori anche grossolani per la semplice ragione che non capiamo esattamente di cosa stiamo parlando: fraintendiamo il dato probabilistico e per questo non gli attribuiamo il corretto significato.

 

2.2. Rischi relativi e assoluti.

Credits to Pixabay.com

Un secondo esempio illustra molto chiaramente un altro aspetto del problema della nostra errata percezione dei rischi, che riguarda il “come” i rischi ci vengono comunicati.

Infatti, la modalità scelta dalle istituzioni per presentare i risultati di uno studio statistico influenza profondamente la nostra percezione in ordine alla portata dei rischi che corriamo, e quindi anche la nostra reazione nei confronti di essi.

Gigerenzer illustra il problema prendendo spunto da un fatto realmente accaduto quasi venticinque anni fa.

Nel 1995, il Comitato britannico sulla sicurezza delle annunciò che la pillola anticoncezionale di terza generazione «aumentava […] del doppio, cioè del 100%, il rischio di trombosi»[18]. Su che cosa si fondava questa stima? Il punto di partenza erano i risultati di uno studio condotto sugli effetti della versione precedente del medesimo farmaco, quello di seconda generazione, dal quale era emerso che, su settemila donne che avevano preso la pillola, circa una aveva sviluppato la trombosi; ripetendo lo studio con il farmaco nuovo, i casi di malattia erano passati a due.

È evidente che, mentre parlare di un “aumento del rischio del 100%” può fare una gran paura, pensare a soli due casi ogni settemila suona molto più tranquillizzante.

Eppure, entrambe le informazioni sono di per sé corrette: se parliamo di rischio relativo (che è il rapporto tra probabilità di ammalarsi avendo preso il farmaco e la probabilità di sviluppare comunque la trombosi, senza aver preso il farmaco), l’aumento di rischio, nell’esempio proposto da Gigerenzer, è effettivamente pari al 100%.

Se si guarda invece all’incremento del rischio assoluto (ossia il numero di donne che si sono ammalate dopo aver preso il farmaco rapportato al totale del campione esaminato) questo «era uguale solo a uno su settemila»[19].

Più i numeri sono grossi meglio vengono i titoli

A seconda di come viene presentato il dato probabilistico, posto che la maggior parte di noi non ha la minima idea di cosa siano il rischio assoluto e il rischio relativo, e di dove stia la differenza tra l’uno e l’latro, si possono dunque suscitare reazioni molto diverse nel pubblico.

«I rischi relativi possono apparire paurosamente alti e spaventare moltissimo, anche quando quelli assoluti non fanno nessuna paura»[20], e non è un caso – sottolinea Gigerenzer – che, specie in ambito sanitario, le informazioni vengano spesso espresse in termini di rischio relativo: «più i numeri sono grossi meglio vengono i titoli»[21].

 

2.3. L’illusione della certezza (o “del rischio zero”).

Uno dei maggiori ostacoli a una gestione intelligente del rischio da parte degli individui è individuato da Gigerenzer nella ricerca, spasmodica e illusoria, della conoscenza certa.

Lo scienziato ha in particolare analizzato, attraverso uno studio empirico, quanto fosse diffusa tra le persone l’erronea convinzione di poter arrivare a conoscere con certezza che cosa accadrà in futuro. Ha isolato un campione di mille cittadini tedeschi e ha chiesto a ciascuno di loro di indicare quali fossero, a loro avviso, i test capaci di produrre risultati assolutamente certi. La scelta spaziava da alcuni esami clinici (la mammografia, l’esame dell’HIV), all’analisi delle impronte digitali, al test del DNA, addirittura all’oroscopo.

La risposta corretta, naturalmente, era: nessuno di loro.

Ciononostante, il 78% degli intervistati ha affermato che il test del DNA fornisce risultati certi al cento per cento; più del 60% del campione ha dichiarato lo stesso con riguardo al test dell’HIV e all’analisi delle impronte digitali[22].

«Parto dal presupposto che tutti voi sappiate leggere e scrivere. Abbiamo la fortuna di essere letterati […]. Ma la capacità di leggere e scrivere non è sufficiente nella nostra società altamente tecnologica. Ciò di cui abbiamo bisogno è anche “l’alfabetizzazione del rischio”. […] Senza di essa, le nostre emozioni possono essere facilmente manipolate e controllate a distanza. E infatti lo sono già»

Sono tante le ragioni per cui cadiamo vittima di questa illusione: da un lato, quasi tutti noi amiamo vedere noi stessi come i comandanti in capo delle nostre vite e troviamo rassicurante l’idea di poter pianificare ogni cosa in anticipo; cosa che certamente non potremmo pensare di poter fare se accettassimo l’idea di vivere in un mondo incerto.

Peraltro, secondo Gigerenzer, «la colpa dell’illusione della certezza non va addossata solo a un bisogno psicologico»[23], posto che siamo anche circondati da veri e propri “fabbricanti di sicurezza” (indovini, maghi, ma anche filosofi e altre figure autorevoli) che si impegnano a farci credere che il nostro futuro sia prevedibile e dunque, almeno in parte, controllabile.

 

2.4. L’illusione del tacchino.

Così come può capitare di vedere certezze laddove ci sono solo rischi, può anche verificarsi un’ipotesi diversa, foriera di analoghi errori di giudizio: può accadere, cioè, di confondere l’incertezza con il rischio (un fenomeno che Gigerenzer chiama “illusione del tacchino”)[24].

L’errore in esame porta, in particolare, ad applicare gli schemi adatti a gestire i contesti di rischio (e cioè – come abbiamo visto – i principi della statistica e del calcolo probabilistico), a situazioni che, invece, richiedono l’impiego di strumenti pensati per far fronte alle incertezze, ossia le euristiche.

Anche qui, l’Autore illustra il problema prendendo spunto da un esempio di vita reale: la tendenziale incapacità degli esperti di prevedere le crisi finanziarie[25] (classica ipotesi di contesto incerto, in cui le probabilità dei possibili accadimenti non sono note né dunque calcolabili matematicamente).

Credits to Pixabay.com

Nel mercato immobiliare americano, scrive Gigerenzer, le stime del rischio si basavano sull’osservazione dei dati storici e sulla logica della successione matematica. Così, per un certo periodo, «poiché i prezzi delle case continuavano a salire, sembrava che il rischio calasse»[26]. Finché, di punto in bianco, nel 2008 l’economia entrò nel caos a causa del verificarsi di una serie di circostanze che i modelli di rischio impiegati fino ad allora non avevano previsto.

Perché è accaduto questo? Si sarebbe potuto evitare? È stata semplice sfortuna, o piuttosto un errore di calcolo dei rischi?

«La prima risposta è poco probabile», osserva l’Autore. «Il problema sta in certi metodi di misurazione scorretti che presuppongono, sbagliando, che in un mondo d’incertezza i rischi siano noti, e poiché così facendo producono numeri precisi per un rischio incerto, ci danno l’illusione della certezza»[27].

_____________________________________

 

[1] V. S. Arcieri, Cervello, intuizione e probabilità. Prima parte. L’ipotesi di Kahneman e Tversky le conferme successive, in questa rivista, 2 aprile 2019.

[2] Cfr. A. Tversky, D. Kahneman, Judgment under Uncertainty: Heuristics and Biases, in Science, Vol. 85, 1974, pp. 1124 ss., D. Kahneman, A. Tversky, On the study of statistical intuitions, in Cognition, 11, 1982, p.p 123 ss.; D. Kahneman, P. Slovic, A. Tversky (a cura di), Judgment under Uncertainty: Heuristics and Biases, Cambridge University Press, 1982; D. Kahneman, Pensieri lenti e veloci, Mondadori, 2012.

[3] In realtà – come si dirà meglio nel prosieguo – quello dell’ignoranza in materia di rischi è, secondo Gigerenzer, solo una delle due facce del problema. L’altra attiene al modo in cui i rischi ci vengono comunicati: a parere dello scienziato, infatti, non siamo in grado di stimare correttamente i rischi le probabilità anche a causa dell’incapacità (o della malizia), di coloro che – rappresentanti della politica, mass-media, istituzioni ecc. – ci presentano stime di rischio in modo tale che noi non riusciamo a capirle, inducendoci così a sottovalutare o, al contrario, a ingigantire la reale probabilità di accadimento degli eventi.

[4] G. Gigerenzer, Imparare a rischiare. Come prendere decisioni giuste, Cortina, 2015, p. 19.

[5] Idem, p. 29.

[6] Idem, p. 18.

[7] La distinzione tra rischio e incertezza è stata teorizzata per la prima volta nel 1921 da Frank Knight, economista, secondo il quale il rischio rappresenta la condizione in cui è possibile derivare una distribuzione di probabilità dei risultati tale da riuscire ad assicurarsi contro tale condizione; in condizioni di incertezza, invece, tale distribuzione di probabilità non esiste (cfr. F.H. Knight, Rischio, incertezza e profitto, La nuova Italia, 1960).

[8] G. Gigerenzer, Imparare a rischiare, cit., p. 33.

[9] Idem, p. 29.

[10] D. Kahneman, Pensieri lenti e pensieri veloci, Mondadori, 2012.

[11] G. Gigerenzer, Imparare a rischiare, cit. p. 36.

[12] Idem, p. 38. Quale esempio di “euristiche intelligenti” (o “regole del pollice”), l’Autore menziona «l’euristica dello sguardo» usata ad esempio dai piloti per capire, in tempi rapidi e senza fare calcoli, se l’aereo in avaria sarà in grado di raggiungere l’aeroporto o se invece è necessario procedere con un atterraggio di emergenza («fissa la torre di controllo: se va verso l’alto del parabrezza, non ce la puoi fare»).

[13] Idem, p. 37.

[14] Idem, p. 38.

[15] Idem, p. 320 (nota n. 10).

[16] Sul particolare problema discendente dalla mancata considerazione della frequenza di base (dato che indica la quota di casi, rispetto al totale, in cui si verifica l’evento di cui ci si occupa), v. anche S. Arcieri, Bias cognitivi e decisione del giudice: un’indagine sperimentale, in questa rivista, 2 aprile 2019.

[17] G. Gigerenzer, Imparare a rischiare, cit., pp. 5 ss.

[18] Idem, p. 9.

[19] Ibidem.

[20] Secondo quanto riportato da Gigerenzer, l’anno successivo alla notizia furono registrati tredicimila aborti in più in Inghilterra e in Galles.

[21] Ibidem.

[22] Idem, pp. 22-23.

[23] Idem, p. 25.

[24] L’immagine, esposta da Gigerenzer a p. 45 del volume sopra citato, è presa in prestito da un noto racconto dello scrittore Nassim Taleb.

[25] G. Gigerenzer, Imparare a rischiare, cit., p. 45.

[26] Idem, p. 47.

[27] Ibidem.

More

A meeting of knowledge on individual and society
to bring out the unexpected and the unspoken in criminal law

 

ISSN 2612-677X (website)
ISSN 2704-6516 (journal)

 

The Journal does not impose any article processing charges (APC) or submission charges