Credits to Unsplash.com
20.10.2021
Pere Simón Castellano

Giustizia algoritmica e neurodiritti nel sistema penale

Recensione del volume di F. Basile, M. Caterini, S. Romano, (a cura di), Il sistema penale ai confini delle hard sciences. Percorsi epistemologici tra neuroscienze e intelligenza artificiale[1]

1. Il diritto di fronte al progresso tecnologico.

Il diritto, come riflesso della società che intende regolare, non può rimanere ai margini dei cambiamenti e delle trasformazioni che avvengono all’interno della stessa. Pertanto, le leggi dovrebbero costituire una sorta di abito su misura per la società cui sono destinate, al fine di acquisire la validità e l’efficacia auspicabile per qualsiasi norma giuridica.

Il progresso tecnologico si evolve con un effetto moltiplicatore senza precedenti. Proprio questa crescita esponenziale rappresenterebbe l’aspetto più pericoloso dell’innovazione tecnologica. Dal 1960 circa ad oggi, la potenza di elaborazione computazionale è approssimativamente aumentata di mille miliardi di volte. Nessun’altra tecnologia, impiegata in passato o attualmente in uso degli esseri umani, è stata potenziata a un ritmo simile: le automobili, per esempio, sono soltanto due volte più veloci rispetto al tempo in cui furono progettate. Per il resto, l’evoluzione è quasi minima.

Tuttavia, questa intensa ed esponenziale trasformazione tecnologica ha avuto luogo mentre, allo stesso tempo, la nostra fisiologia umana, cioè il nostro cervello, non si è affatto evoluto e non è preparato a trarre vantaggio da questo progresso. Già oggi la tecnologia è superiore e sovrastante alle debolezze umane, il che lascia presagire un triste collasso umano, ancora di più se si tiene conto dei crescenti tentativi degli uomini di giocare ad essere dèi, come affermava il maestro Rodotà nelle sue ultime opere, di fronte alla cosiddetta convergenza tecnologica e all’uso dell’intelligenza artificiale nei progetti di nanotecnologia e biotecnologia.

Questa intensa ed esponenziale trasformazione tecnologica ha avuto luogo mentre, allo stesso tempo, la nostra fisiologia umana, cioè il nostro cervello, non si è affatto evoluto e non è preparato a trarre vantaggio da questo progresso. Già oggi la tecnologia è superiore e sovrastante alle debolezze umane, il che lascia presagire un triste collasso umano

Dinnanzi ad una nuova realtà dominata dagli strumenti connessi a internet e dalla capacità di elaborazione attuariale di enormi quantità di informazioni, la legge non può rimanere indifferente. La dottrina nazionale e internazionale, e anche il legislatore europeo, hanno infatti riservato uno speciale interesse all’intelligenza artificiale data la sua attuale rilevanza, come dimostra l’attenzione che i mercati le rivolgono e il sostegno pubblico alla ricerca correlata. Pertanto non sorprende che i rapporti di aziende prestigiose prevedano una continua crescita nel prossimo decennio.

Da parte sua, la Commissione europea ha pubblicato il 21 aprile 2021 la proposta di un regolamento europeo sull’uso dell’intelligenza artificiale[2]. Si tratta di uno strumento creato ad hoc per l’intelligenza artificiale con l’obiettivo di garantire che i cittadini europei possano avere fiducia nei risultati di questa nuova tecnologia. Ciò è possibile grazie all’apertura del regolamento a miglioramenti tecnici e, al contempo, al rafforzamento della protezione dei diritti fondamentali contro i rischi derivanti dall’uso di strumenti o sistemi basati sull’intelligenza artificiale.

L’obiettivo è quello di porre fine ad un panorama normativo atomizzato, combinando e armonizzando le diverse disposizioni in modo sistematico e coerente ed elaborando un nuovo piano coordinato che coinvolga i diversi Stati membri. Tutto ciò è rivolto, da un lato, a garantire la sicurezza e i diritti fondamentali degli individui e delle imprese, e, dall’altro, a rafforzare l’adozione, promuovere gli investimenti e l’innovazione nell’intelligenza artificiale in tutta l’UE.

Da parte sua, la Commissione europea ha pubblicato il 21 aprile 2021 la proposta di un regolamento europeo sull’uso dell’intelligenza artificiale. Si tratta di uno strumento creato ad hoc per l’intelligenza artificiale con l’obiettivo di garantire che i cittadini europei possano avere fiducia nei risultati di questa nuova tecnologia

In questo contesto si inserisce il lavoro collettivo che la dottrina italiana, e più precisamente Fabio Basile, Mario Caterini e Sabato Romano, hanno recentemente curato con successo. Un’opera necessaria, poiché colma una lacuna evidente, in un momento molto opportuno, in cui il legislatore europeo sembra aver varato un testo legislativo a vocazione sistematizzante. Tuttavia, la proposta legislativa è già stata criticata dalla dottrina più specializzata a causa, in primo luogo, della mancanza di una tutela specifica dei diritti dei consumatori, essendo detto testo troppo dipendente dalle valutazioni dell’industria stessa e contemplando troppe eccezioni, e a causa, in secondo luogo, del mancato riconoscimento del diritto a ottenere il risarcimento dei danni causati dalla tecnologia.

Il lavoro che ho il piacere di recensire si basa su un approccio molto specifico in questo campo, relativo al possibile impatto delle neuroscienze e dell’intelligenza artificiale in materia penale. Ciò viene realizzato attraverso l’associazione di opere che provengono da criteri, angolazioni o campi di conoscenza molto diversi, al fine di coprire l’inevitabile natura multidisciplinare degli argomenti.

2. Struttura e contributi.

I contributi inclusi nel libro sono divisi in tre parti ben differenziate, al fine di circoscrivere meglio gli argomenti e di evidenziare i vivaci dibattiti multidisciplinari, di inevitabile disamina per il fatto che trattano argomenti che coinvolgono diversi rami del sapere scientifico.

È elevata la complessità di uno studio critico sulla natura e i limiti delle neuroscienze e dell’intelligenza artificiale in materia penale, perché si tratta di combinare i limiti e l’irripetibilità delle scelte, legislative e giudiziarie, dell’uomo, con i postulati della scienza, in cui invece prevale la raccolta e l’elaborazione logico-matematica di dati empirici quantitativi, finalizzata all’ottenimento di risultati prevedibili.

In questo scenario complesso, l’opera tenta di risolvere dal punto di vista giuridico-criminale una questione che si pone con salda chiarezza: quale certezza scientifica, oggettivamente verificabile e riconoscibile, accompagna l’ingresso e permette l’uso delle neuroscienze e dell’intelligenza artificiale nel sistema penale?

L’opera tenta di risolvere dal punto di vista giuridico-criminale una questione che si pone con salda chiarezza: quale certezza scientifica, oggettivamente verificabile e riconoscibile, accompagna l’ingresso e permette l’uso delle neuroscienze e dell’intelligenza artificiale nel sistema penale?

L’ipotesi di partenza formulata dai tre curatori del lavoro è che esistono indubbi punti di convergenza tra diritto penale e intelligenza artificiale; tuttavia, è necessario non solo testare il loro impatto con le categorie dogmatiche e con i nuovi paradigmi di responsabilità penale che si profilano all’orizzonte, ma anche verificare il loro possibile utilizzo da parte di giudici e magistrati, sulla base di una corretta comprensione del funzionamento degli algoritmi e del grado di affidabilità dei risultati che forniscono.

Per cercare di rispondere a questa domanda che, a sua volta, è scomponibile in molte altre domande, i curatori hanno progettato un lavoro diviso in tre parti chiaramente differenziate: la prima parte, per analizzare le potenzialità e gli effetti dei sistemi di intelligenza artificiale nel sistema penale; la seconda, con lo scopo di analizzare il diritto penale sotto lo sguardo delle neuroscienze; infine, la terza, per illustrare una visione sistematica che includa i contributi di una concezione teorica ed epistemologica e che ponga in luce la complessità della materia, attraverso l’articolazione di diversi piani temporali e spaziali, che aiutano a comprendere e identificare il fenomeno del progresso tecnologico e dell’intelligenza artificiale nella sua eterogeneità significativa.

La mia esperienza nel coordinamento di lavori collettivi, sette fino ad oggi, mi permette di mettere in guardia i potenziali lettori su un fatto ovvio: qualsiasi lavoro di questa natura affronta la sfida dell’eterogeneità dei contributi, sia in termini di contenuto che di qualità. Tuttavia, in questa occasione, non ho rilevato dalla lettura dell’opera alcun attrito o dissonanza, rischio molto comune oggi in certe opere collettive, causato da contributi forzati o da opere che mascherano raccolte di atti. In questa occasione, ciò è legato alla valente direzione dei tre curatori, che hanno progettato metodologicamente le tre parti chiaramente differenziate e i temi che volevano affrontare, e che hanno accuratamente scelto, alla base della loro trattazione, gli autori la cui formazione ed esperienza avrebbero garantito di affrontare con successo la missione loro affidata.

L’ipotesi di partenza formulata dai tre curatori del lavoro è che esistono indubbi punti di convergenza tra diritto penale e intelligenza artificiale; tuttavia, è necessario non solo testare il loro impatto con le categorie dogmatiche e con i nuovi paradigmi di responsabilità penale che si profilano all’orizzonte, ma anche verificare il loro possibile utilizzo da parte di giudici e magistrati

Nella prima parte, il punto di partenza è la constatazione che l’intelligenza artificiale è ovunque. Il libro esordisce con un capitolo di Fabio Basile, uno dei coordinatori del libro, che in precedenza aveva scritto un articolo sull’argomento[3] che rappresenta un must per chiunque voglia avvicinarsi allo studio dell’intelligenza artificiale e del suo rapporto con il diritto, sia in Italia che altrove.

Il capitolo di Fabio Basile solleva e offre una posizione decisa su questioni importanti per il diritto penale: l’uso dell’intelligenza artificiale per l’applicazione della legge e la prevenzione del crimine, attraverso il cosiddetto predictive policing; l’uso di algoritmi nei processi decisionali, sostituendo, in tutto o in parte, la decisione del “giudice-giudice”; a ciò si collegano gli algoritmi predittivi per la valutazione del rischio, utilizzati per calcolare e valutare la pericolosità criminale di un detenuto; infine, le possibili ipotesi di coinvolgimento – come strumento, come autore o come vittima – di un sistema di intelligenza artificiale nella commissione di un reato.

Il contributo di Fabio Basile solleva anche delle questioni che altri autori affronteranno e cercheranno di risolvere in questa prima parte del libro: Francesco Fotia studia i problemi posti dall’apprendimento autonomo degli algoritmi, il cosiddetto machine learning, e quelli derivati dalla mancanza di trasparenza e spiegabilità di qualcosa che muta e si trasforma senza che l’autore del codice ne conosca le ragioni; Elio Lo Monte, dal canto suo, si concentra sulla responsabilità penale delle macchine e sulle conseguenze di ciò che detta l’algoritmo, riflettendo sul caso paradigmatico del veicolo a guida autonoma; Giulia Rizzo Minelli, in continuità con il precedente contributo, indaga sulla commissione di reati da parte dei robot e i problemi d’imputazione in un sistema penale che, come i nostri, punisce le condotte umane.

Il contributo successivo è di Mario Caterini, un esperto del settore con pubblicazioni precedenti che lo rendono un riferimento indiscusso nel campo[4]. Nel testo l’autore avverte che le sue conclusioni su un ipotetico futuro processo robotico che coinvolge questioni legali sono specificamente progettate per la giurisdizione penale. L’autore, da un lato, accetta che i giudici, in quanto esseri umani, non sempre forniscano prove di apprezzabile razionalità giuridica e sufficiente motivazione, ma, dall’altro, nota che l’alternativa fornita da un sistema di intelligenza artificiale decidente probabilmente frustrerebbe ulteriormente le garanzie dell’individuo. Questo è particolarmente vero in relazione ai principi del favor rei, della presunzione di innocenza – nel suo aspetto in dubio interpretatio pro reo – e dello standard “oltre ogni ragionevole dubbio, come garanzie di tutti i procedimenti penali.

Non possiamo non condividere le riflessioni di Mario Caterini. In un’altra sede abbiamo difeso l’impossibilità di sostituire il giudizio giurisdizionale con il giudizio robotico o con algoritmi intelligenti[5], e, tra le varie ragioni, in particolare in Spagna, l’art. 117.1 della Costituzione riserva questa funzione esclusivamente a giudici e magistrati. Tuttavia, Mario Caterini immagina delle future modifiche legislative con l’avvertimento che la sostituzione del giudice con un sistema d’intelligenza artificiale possa realizzarsi solo in vista di un’assoluzione o di una sentenza più favorevole rispetto alle altre possibili in ragione di plausibili precedenti giurisprudenziali.

Condivido questo avvertimento, che peraltro è accompagnato da un approccio realistico alla questione, che coincide con le tesi che ho pubblicato. L’intelligenza artificiale non dovrebbe essere utilizzata per sostituire il giudice, ma per assistere il magistrato, un misto di humanitas e techne, tipico di un diritto penale sinestetico, utile per ridurre i tempi di risposta dell’autorità giudiziaria, per migliorare la prevedibilità nell’applicazione della legge e per garantire l’uniformità delle pronunce giudiziarie. È particolarmente utile, a nostro avviso, prendere decisioni giudiziarie che oggi, purtroppo, i giudici adottano nel “vuoto”, per esempio quando si tratta di misure cautelari personali che anticipano il processo giurisdizionale vero e proprio.

L’intelligenza artificiale non dovrebbe essere utilizzata per sostituire il giudice, ma per assistere il magistrato, un misto di humanitas e techne, tipico di un diritto penale sinestetico, utile per ridurre i tempi di risposta dell’autorità giudiziaria, per migliorare la prevedibilità nell’applicazione della legge e per garantire l’uniformità delle pronunce giudiziarie. È particolarmente utile, a nostro avviso, prendere decisioni giudiziarie che oggi, purtroppo, i giudici adottano nel “vuoto”

Segue il capitolo di Sabato Romano, che oltre ad evidenziare l’impatto che l’intelligenza artificiale già può avere nella pratica giudiziaria, facendo riferimento al recente intervento normativo europeo, prospetta quel che potrebbe accadere inserendo meccanismi artificiali in un sistema penale già votato alla postmodernità. La prima parte, così, si chiude con l’analisi e lo studio di Juliana Vivar Vera sugli algoritmi che possono contribuire al processo decisionale e di emissione di una sentenza penale.

La seconda parte incorpora riflessioni specifiche sul contributo e sui limiti delle neuroscienze nel sistema penale, sul rapporto reale tra causalità mentale e colpa normativa, sull’imputabilità degli alcolisti e sulla condotta dolosa rivisitata con l’aiuto delle neuroscienze, che rientrano anch’esse in questo archetipo. Comprende opere di Maristella Amisano, Antonio Nappi, Maria Beatrice Magro, Adelmo Manna e Pierluigi Guercia e, infine, Mattia di Florio e Giandomenico Salcuni.

La terza parte, dedicata, come anticipato, alla prospettiva epistemologica, completa lo studio con tre opere di Francesco Schiaffo, Serena Ucci e Francesco Barresi. Analizzano questioni di grande interesse come il potere punitivo e disciplinare e il suo esercizio da parte di un algoritmo o come gli effetti che le decisioni automatizzate possono avere sui diritti delle persone, analizzando in tal senso anche il pericolo astratto alla luce delle scienze empiriche.

3. Riepilogo.

Ci sono molte domande e problemi che l’uso dell’intelligenza artificiale solleva per il diritto in generale, e per il diritto penale in particolare. Le questioni relative alla responsabilità penale e ai crimini commessi dalle macchine sono state frettolosamente affrontate dalla dottrina nazionale e internazionale, anche se sembra che questa evenienza sia ancora lontana nel tempo. D’altra parte, i progressi nei sistemi di elaborazione massiva dei dati, come i Big Data, e la capacità di certi algoritmi di emulare il giudizio umano, anche giurisdizionale, tenendo però conto di molti più dati e variabili, è una tecnica già presente in alcuni sistemi in cui la chiave è individuata nel valutare correttamente il rischio di futuri reati o il rilevamento di un focus specifico di rischio.

L’opportunità è considerevole e non possiamo restare spettatori passivi. Alcuni sistemi, per esempio, sono utilizzati anche nei sistemi penitenziari, come COMPAS e HART, e calcolano il rischio di recidiva, i cui risultati possono essere molto utili, come elemento ausiliario, nella valutazione effettuata per esempio da équipes tecniche, da commissioni di esperti per il trattamento penitenziario o dai giudici di sorveglianza.

L’intelligenza artificiale può aiutare e assistere l’esercizio umano della nobile funzione giurisdizionale. Si tratta di farlo con le dovute garanzie per i diritti delle persone, garantendo il controllo umano (del giudice nel caso del processo giurisdizionale) sull’algoritmo, la sua tracciabilità, trasparenza, spiegabilità e verificabilità. In questo ambizioso e futuro scenario, dobbiamo avere professionisti preparati ad affrontare la sfida della necessaria trasformazione digitale della nostra amministrazione della giustizia. Chi vuole far parte di questa trasformazione, consigliare e guidare il cambiamento dovrebbe prendere in considerazione il lavoro curato da Fabio Basile, Mario Caterini e Sabato Romano, che ho avuto il piacere di recensire.

_________

[1] Collana Quaderni dell’Istituto di studi penalistici “Alimena”, Centro di ricerca interdipartimentale dell’Università della Calabria, vol. III, Pacini Giuridica, 2021.

[2] Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts, disponibile a questo indirizzo.

[3] F. Basile, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, in questa rivista, 29 settembre 2019.

[4] M. Caterini, Il giudice penale robot, in La legislazione penale, 19 dicembre 2020.

[5] P. Simón Castellano, Justicia cautelar e inteligencia artificial. La alternativa a los atávicos heurísticos judiciales, J.M. Bosch Editore, 2021, recensito in questa rivista da J. Dorado Ferrer, Custodia cautelare e intelligenza artificiale: garanzie costituzionali contro gli automatismi di oggi e di domani, 6 ottobre 2021.

Altro

Un incontro di saperi sull’uomo e sulla società
per far emergere l’inatteso e il non detto nel diritto penale

 

ISSN 2612-677X (sito web)
ISSN 2704-6516 (rivista)