Credits to Pixabay.com

Issue 2/2020

In un recente articolo scritto a quattro mani con il Prof. Vicenzo Crupi, dal titolo “Come ragionano i giudici: razionalità, euristiche e illusioni cognitive[1], lei dedica ampio spazio all’analisi della migliore letteratura in materia di illusioni cognitive (bias) suscettibili di influenzare, distorcendolo, il processo decisionale dei giudici.

Volendo sintetizzare al massimo i risultati delle sue ricerche, può descriverci le caratteristiche dei principali bias che, secondo la letteratura da lei esaminata, più di frequente assumono rilievo in sede di ragionamento giudiziale (specie con riferimento ai giudici penali)?

Uno dei risultati più interessanti delle ricerche che lei cita è che queste distorsioni o “trappole mentali” influiscono sul ragionamento di tutti noi in quanto essere umani. Sono quindi comuni non solo ai giudici ma anche a professionisti ed esperti di altri campi, come medici, consulenti o piloti d’aereo. Sembrano anche essere indipendenti dal livello di istruzione e dalla durata dell’esperienza professionale: riguardano il medico esperto come il novellino, e ognuno di noi quando si trova a scegliere allo scaffale del supermercato (come i pubblicitari e gli esperti di marketing sanno bene).

Gli esperimenti di laboratorio condotti da psicologi ed economisti comportamentali cercano di mettere in luce le strategie di ragionamento e decisione che le persone adottano spontaneamente, le cosiddette euristiche. Queste strategie si allontanano da quelle prescritte dalle teorie formali del ragionamento corretto (logica, calcolo delle probabilità e teoria delle decisioni razionali), ne violano le regole e a volte ci fanno sbagliare. Perché questo accada, come si siano evolute queste euristiche, quale ruolo abbia avuto l’evoluzione biologica del nostro cervello rispetto all’evoluzione culturale è ancora materia di ampio dibattito. Anche il fatto che le distorsioni cognitive e gli errori di ragionamento siano un reale indizio della nostra irrazionalità è molto dibattuto. Alcuni psicologi pensano che siamo prevedibilmente e sistematicamente irrazionali, condannati all’errore, per così dire; altri sono più ottimisti e interpretano questi fenomeni come casi di cattiva applicazione di strategie cognitive altrimenti efficaci.

Detto questo, e per rispondere alla sua domanda, è lecito aspettarsi che alcuni bias siano più rilevanti di altri per i giudici, anche se credo manchi una rassegna sistematica su questo aspetto. I giudici devono prendere decisioni in condizioni di grande incertezza, sulla base di informazioni parziali e talvolta contradditorie e spesso in assenza dei dati statistici rilevanti. Quindi dovremmo aspettarci che tutte le euristiche che interessano e alterano il ragionamento probabilistico (“rappresentatività”, “disponibilità”, “incorniciamento”, ecc.) siano particolarmente rilevanti. D’altra parte, i giudici hanno un vantaggio rispetto ad altre figure che prendono decisioni in condizioni simili, come i medici o i piloti d’aereo: almeno in teoria, possono dedicare alla decisione il tempo necessario, senza eccessive pressioni tipiche delle situazioni di emergenza.

Alcuni psicologi pensano che siamo prevedibilmente e sistematicamente irrazionali, condannati all’errore, per così dire; altri sono più ottimisti e interpretano questi fenomeni come casi di cattiva applicazione di strategie cognitive altrimenti efficaci

Come rileva nell’articolo, il problema delle distorsioni cognitive nell’ambito del ragionamento dei giudici ha recentemente attratto l’attenzione di studiosi di diversa estrazione (dalla filosofia, all’economia, alla logica, alla psicologia), proprio in ragione della sua rilevanza in termini di buon andamento del sistema giuridico.

Sulla base dell’analisi da lei condotta, qual è lo stato dell’arte della ricerca in Italia in ordine ai rapporti tra bias cognitivi e decisione giudiziale?

Come valuta il livello di consapevolezza e l’atteggiamento degli studiosi di diritto del nostro paese con riferimento a questi fenomeni?

Sicuramente l’ambito legale e forense non è il più frequentato dagli studiosi di questi fenomeni, non solo in Italia. Fatto abbastanza sorprendente, dato che, per le ragioni che citavo, il ragionamento non solo dei giudici, ma anche di avvocati, pubblici ministeri e giurati, rappresenta un campo di applicazione importante e potenzialmente molto ampio per l’analisi delle euristiche e delle distorsioni decisionali. Al confronto, questi temi sono molto meglio studiati in medicina, come dimostrano per esempio i lavori di Vincenzo Crupi, che ha firmato con me l’articolo e che da anni si occupa di questi problemi, sia con pubblicazioni sia con iniziative di ricerca e formazione sul campo. D’altra parte, filosofi della scienza come Roberto Festa, Paolo Garbolino, Alberto Mura e Claudio Pizzi si sono spesso occupati di ragionamento e decisione in ambito legale e forense, al di là del problema specifico delle euristiche e delle illusioni cognitive, per esempio sul tema della testimonianza nell’ambito dell’approccio bayesiano.

L’ambito legale e forense non è il più frequentato dagli studiosi di questi fenomeni, non solo in Italia. Fatto abbastanza sorprendente, dato che […] il ragionamento non solo dei giudici, ma anche di avvocati, pubblici ministeri e giurati, rappresenta un campo di applicazione importante e potenzialmente molto ampio per l’analisi delle euristiche e delle distorsioni decisionali

Mi sembra comunque che l’attenzione per questi problemi stia crescendo negli ultimi anni anche fra i professionisti del diritto. Per esempio, l’anno scorso è uscito un libro, Dalla testimonianza alla sentenza (Il Mulino), interamente dedicato all’approccio “euristiche e bias” in ambito giuridico a firma congiunta di uno psicologo, Rino Rumiati, e di un avvocato, Carlo Bona. Un’iniziativa interessante, di cui apprendo dal sito della Scuola Superiore di Magistratura, è un corso su La psicologia del giudicare nel programma di formazione permanente della Scuola, che unisce studiosi e professionisti: una collaborazione che, per questo genere di ricerche, è naturalmente essenziale. Esperienze simili si trovano anche altrove, per esempio a Trento, dove Katya Tentori, psicologa, parla di fallacie di ragionamento ad avvocati, magistrati e studenti di giurisprudenza.

Anche nella ricerca, l’analisi dei diversi aspetti del ragionamento e della decisione richiede una collaborazione fra discipline tradizionalmente separate. Per esempio, alla Scuola IMT Alti Studi Lucca, su questi temi lavorano sia il gruppo di ricerca guidato dal Direttore Pietro Pietrini, che si occupa fra le altre cose di neuroscienze forensi[2], sia il gruppo di economisti comportamentali di Ennio Bilancini. Ciò permette di avere una visione complessiva di tutti i problemi rilevanti, a livello sociale, cognitivo, neurale e anche genetico.

Infine, credo sia molto importante la buona divulgazione: iniziative come questa stessa Rivista, che in breve tempo ha già raccolto parecchio materiale rivolto a un ampio pubblico, sono fondamentali per diffondere le conoscenze e la consapevolezza su queste ricerche.
Quali possono essere, a suo avviso, le migliori misure da attuare al fine di contrastare – o, eventualmente, di prevenire – gli effetti prodotti dalle illusioni cognitive in sede giudiziaria?

Non penso che esista ancora una vera e propria teoria per la prevenzione e la riduzione dei bias di ragionamento e decisione, anche se naturalmente sarebbe importante svilupparla. Questo è vero non solo per l’ambito giudiziario ma anche, per esempio, per il ragionamento clinico, che, come dicevo, è sicuramente molto più studiato.

Esistono diversi strumenti, come le checklist, che aiutano a evitare gli errori in casi specifici, ma nessuna soluzione generale. Penso che al momento il rimedio più efficace sia l’essere consapevoli dell’esistenza di queste illusioni e delle condizioni che le facilitano: da questo punto di vista il lavoro di definizione e analisi di questi fenomeni è essenziale.

Un’altra sfida interessante riguarda l’istruzione e la formazione professionale: anche se inserire nei curricula elementi di logica, ragionamento critico e probabilità è necessario, sappiamo che non basta per prevenire fallacie ed errori nell’attività quotidiana fuori dall’aula. Dovremmo cercare di immaginare come sfruttare a nostro favore i meccanismi di ragionamento, spesso imperfetti, che gli studiosi mettono in luce per sviluppare modalità di istruzione e formazione più efficaci, fin dalla scuola. Ho però l’impressione che le attuali tendenze pedagogiche e didattiche vadano spesso in direzione opposta, abbandonando anche elementi importanti già presenti nell’istruzione scolastica tradizionale, come l’analisi logica o il metodo dimostrativo in geometria e matematica.

Penso che al momento il rimedio più efficace sia l’essere consapevoli dell’esistenza di queste illusioni e delle condizioni che le facilitano: da questo punto di vista il lavoro di definizione e analisi di questi fenomeni è essenziale […] Un’altra sfida interessante riguarda l’istruzione e la formazione professionale […] Ho però l’impressione che le attuali tendenze pedagogiche e didattiche vadano spesso in direzione opposta

Si assiste negli ultimi anni alla formulazione di diverse proposte volte, tra l’altro, a ridurre le conseguenze pregiudizievoli degli errori cognitivi dei giudici attraverso il ricorso a sistemi di intelligenza artificiale (es. algoritmi predittivi) che affianchino – o, secondo le posizioni più estreme, addirittura sostituiscano – il giudice nello svolgimento dei suoi compiti.

Quale è la sua opinione in proposito?

Ritiene verosimile, e auspicabile, nel prossimo futuro, un simile scenario? 

Quando si propone al decisore umano di affidarsi, in tutto o in parte, a metodi algoritmici come i sistemi esperti o gli algoritmi predittivi, le reazioni sono sempre piuttosto accese e a volte allarmistiche. Di nuovo, il contesto medico, dove approcci simili sono sperimentati ormai da decenni, è utile anche per valutare queste proposte in modo più equilibrato. Quando Paul Meehl, una sorta di leggenda della psicologia clinica, sostenne in un breve libro del 1954 che metodi statistici e algoritmici fossero superiori alla valutazione di esperti umani nel predire il comportamento futuro delle persone[3], le reazioni furono molto critiche. Nel suo libro, Pensieri lenti e veloci, Daniel Kahneman ricorda per esempio le forti resistenze che incontrò quando tentò di applicare le idee di Meehl per migliorare i test psicologici usati dall’esercito israeliano.

In parte, la diffidenza verso questi metodi nasce dal dubbio che questioni sensibili e complesse come la valutazione di un profilo psicologico o di un candidato possano essere date in pasto a un programma informatico. Ma è proprio con questo tipo di problemi che un algoritmo semplice e ben costruito può rivelarsi più affidabile del giudizio intuitivo umano, che è spesso sopravvalutato e soggetto a distorsioni non solo di tipo cognitivo. E in effetti, in America e non solo, programmi di analisi e supporto vengono già utilizzati, per esempio per valutare il rischio di recidiva criminale di un imputato e quindi concedergli o meno la libertà su cauzione, o la libertà condizionale. L’ultimo caso in ordine di tempo che ha suscitato polemiche (State v. Loomis)[4] riguarda proprio l’uso di un sistema esperto di questo tipo, COMPAS, per profilare l’imputato[5].

Il dibattito in corso non riguarda tanto l’accuratezza relativa di questi sistemi, cioè se producano decisioni migliori di quelle umane, quanto la loro eventuale “opacità” e il modo in cui i decisori umani interpretano i loro resoconti. Molti di questi sistemi sono software proprietari (quindi basati su algoritmi riservati) ma soprattutto, per definizione, non se ne può ricostruire il funzionamento nel dettaglio: in altre parole, si osserva la decisione finale ma non il processo che l’ha generata. Per questo, i critici temono che questi sistemi possano riprodurre bias di vario tipo, per esempio a sfavore di minoranze razziali.

La diffidenza verso questi metodi nasce dal dubbio che questioni sensibili e complesse come la valutazione di un profilo psicologico o di un candidato possano essere date in pasto a un programma informatico. Ma è proprio con questo tipo di problemi che un algoritmo semplice e ben costruito può rivelarsi più affidabile del giudizio intuitivo umano

Un altro aspetto, forse più interessante, è che spesso i giudici e gli altri professionisti hanno difficoltà a comprendere ed utilizzare la raccomandazione della macchina, soprattutto se questa è espressa in termini probabilistici, come accade quasi sempre. La letteratura sulla nostra incapacità di comprendere e valutare il rischio è ampia e solida, quindi si ripropongono qui i problemi di cui abbiamo parlato. Naturalmente, fin qui abbiamo parlato di sistemi esperti a supporto della decisione umana, che non la sostituisce del tutto. Anche se ci sono proposte di affidarsi alle macchine per decisioni di routine in casi (civili) di minore entità, credo che nessuno pensi seriamente di mettere un software al posto del giudice in un processo penale.

 

Nelle ultime battute del suo articolo troviamo qualche cenno al tema del cd. debiasing, termine che sta a indicare il complesso delle procedure e delle tecniche ritenute in grado di contrastare l’azione dei bias cognitivi delle illusioni cognitive.

Può dirci qualcosa di più in merito a queste tecniche, a partire da alcuni esempi di cui è a conoscenza?

Quali sono ad oggi le principali evidenze in ordine all’efficacia di queste procedure?

Come ricordavo all’inizio, ci sono due atteggiamenti che possiamo assumere di fronte ai risultati delle ricerche sulle euristiche e le distorsioni cognitive. Al momento c’è su questo un dibattito molto acceso sia in psicologia sia in economia, a volte eccessivamente polarizzato, che richiama posizioni filosofiche molto più antiche.

Semplificando parecchio, da un lato, si può pensare che siamo sostanzialmente irrazionali e abbiamo bisogno di correttivi che ci aiutino a ragionare e decidere meglio; dall’altro, che siamo sostanzialmente razionali ma limitati, e occorra quindi individuare i contesti in cui la nostra ragione funziona al meglio. Da queste due posizioni discendono diverse ricette per il debiasing, che in realtà non sono necessariamente incompatibili.

Per esempio, dalla prima discende l’idea del nudge (la “spinta gentile” in italiano), popolarizzata da Richard Thaler, Nobel per l’economia del 2017: correggere e indirizzare i comportamenti individuali senza costringere o vietare ma manipolando “a fin di bene” gli aspetti rilevanti del contesto di scelta (è facile vedere che il nudge solleva immediati problemi etici e politici, come testimonia il dibattito sul cosiddetto paternalismo libertario). Questa idea ha già ispirato diversi progetti sia all’estero sia in Italia, come per esempio la Nudge Unit Toscana per la Salute (NUTS), che abbiamo da poco fondato alla Scuola IMT in collaborazione con ARS Toscana. Pensare a come applicare queste tecniche, già sperimentate nell’ambito sanitario, in quello legale e giudiziario è una sfida molto interessante.

Credits to Pixabay.com

Altri studiosi assumono il secondo atteggiamento e tentano di applicare “in positivo” i risultati delle ricerche, cercando di spingere le persone a ragionare bene piuttosto che a modificare le proprie scelte. Per esempio, Gerd Gigerenzer e il suo gruppo di collaboratori hanno sviluppato diverse tecniche per favorire il ragionamento corretto e diminuire la percentuale di errori[6]. Alcune di queste riguardano il modo di comunicare le informazioni rilevanti, problema cruciale in sede giudiziaria dato il ruolo centrale del flusso di informazioni fra le diverse e numerose figure interessate (testimoni, periti, avvocati, giudici, giurati, ecc.).

Gigerenzer discute molti casi – il più famoso dei quali relativo al processo di O. J. Simpson – in cui periti, avvocati e giudici tendono a interpretare in modo erroneo dati e ragionamenti statistici, come quelli richiesti per valutare una testimonianza, un test del DNA o un rischio di recidiva criminale. Per esempio, sappiamo che, in generale, le persone valutano in modo molto diverso il rischio a seconda che sia espresso in termini relativi o assoluti.

Consideriamo un caso immaginario: se, in un certo contesto, accertiamo che un determinato rischio è aumentato, passando da 5 casi su cento a 10 casi su cento, possiamo decidere di comunicare tale dato in due modi: in termini di rischio relativo (nel qual caso diremo che il rischio è aumentato del 100%, ossia è raddoppiato), oppure di rischio assoluto (nel qual caso diremo che il rischio è aumentato del 5%). Anche se, in un certo senso, le due informazioni dicono la stessa cosa, la seconda, espressa in termini assoluti, è molto più trasparente e comprensibile della prima. Questa differenza si riflette sistematicamente sulle decisioni prese dai soggetti interessati, inclusi i giudici e gli altri professionisti in ambito. Un altro esempio simile è dato dal metodo che Gigerenzer chiama delle “frequenze naturali”, che consiste nell’esprimere i valori di probabilità rilevanti in termini espliciti (“immaginando 100 persone simili all’imputato, 10 commetteranno ancora un reato”) invece che percentuali (“il 10% delle persone simili all’imputato commetterà ancora un reato”). Anche se apparentemente la differenza è irrilevante, la comunicazione in termini di frequenze favorisce il ragionamento probabilistico corretto, diminuendo per esempio il numero di giudizi fallaci in casi simili a quello relativo alla causa per negligenza che discutiamo nell’articolo.

Ci sono parecchi altri esempi promettenti di queste tecniche, che sarebbe interessante esplorare in ambito giudiziario. Per farlo, occorre però che studiosi e professionisti collaborino fra loro in modo da individuare i problemi più urgenti e più adatti per un intervento di questo tipo e sviluppare di conseguenza tecniche correttive il più possibile semplici ed efficaci.


 

[1] Pubblicato in Criminalia, 2017, pp. 181 ss. e anche su disCrimen.it, 22 ottobre 2018.

[2] Sull’argomento si veda anche F. Basile, Assassini nati? Libero arbitrio, genetica comportamentale e neuroscienze in una recente sentenza di Cassazione, in questa rivista, fascicolo 6/2019, pp. 123 ss.

[3] P.E. Meehl, Clinical vs. Statistical Prediction: A Theoretical Analysis and a Review of the Evidence, University of Minnesota Press, 1954.

[4] State v. Loomis, 881 N.W.2d 749, Wisc. 2016.

[5] Sul tema dell’utilizzo di algoritmi predittivi, da parte del sistema di giustizia statunitense, al fine di operare una valutazione del rischio di recidiva del reo, si veda anche F. Basile, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, in questa rivista, fascicolo 10/2019, pp. 1 ss.

[6] Per ulteriori approfondimenti sul tema, si veda S. Arcieri, Cervello, intuizione e probabilità. Seconda parte. La tesi di Gerd Gigerenzer, in questa rivista, fascicolo 4/2019, pp. 252 ss.

More

A meeting of knowledge on individual and society
to bring out the unexpected and the unspoken in criminal law

 

ISSN 2612-677X (website)
ISSN 2704-6516 (journal)

 

The Journal does not impose any article processing charges (APC) or submission charges