Credits to Pixabay.com
06.10.2021
Javier Dorado Ferrer

Pretrial detention and artificial intelligence: constitutional guarantees against the automatisms of today and tomorrow

Review of P. Simón Castellano’s book, Justicia cautelar e inteligencia artificial. La alternativa a los atávicos heurísticos judicialesJ.M. Bosch Editor, 2021*

Issue 10/2021

Secondo l’Accademia Reale Spagnola, “automa” è, tra i diversi usi del termine, la persona che agisce senza riflessione. La definizione comporta un certo paradosso perché, secondo l’etimologia greca e latina del termine (“ατόματα” e “automăta” rispettivamente), l’uso storico della parola, raccolto nella letteratura classica, era circoscritto alla macchina, all’ingegno o all’aggeggio che operava individualmente, emulando in un certo senso gli esseri viventi.

In questo modo, l’automatismo non è legato oggi, nel nostro immaginario, solo all’artificio come realtà contraria alla natura, ma si estende a quel processo che obbedisce ciecamente a una serie di regole.

Pertanto, il concetto non è esclusivo della tecnologia, ma è pienamente applicabile all’essere umano quando si comporta secondo la stessa logica. L’autore della monografia recensita non si lascia sfuggire questa osservazione, perché nel capitolo II ben afferma che gli esseri umani sono «automatici, ricorrenti, in misura maggiore di quanto possiamo pensare, nel nostro giorno per giorno, nelle nostre azioni quotidiane»[1].

Ebbene, la giustizia, e in particolare la giustizia cautelare che è oggetto di studio e riflessione in questo lavoro, è al bivio di dover rispettare la certezza del diritto e, allo stesso tempo, di non cadere nell’«automatismo apodittico»[2] operante in certi atti processuali di indubbia rilevanza costituzionale, secondo l’autore e la ricca dottrina scientifica che cita.

La giustizia, e in particolare la giustizia cautelare […], è al bivio di dover rispettare la certezza del diritto e, allo stesso tempo, di non cadere nell’«automatismo apodittico»  operante in certi atti processuali di indubbia rilevanza costituzionale, secondo l’autore e la ricca dottrina scientifica che cita

È proprio qui che dobbiamo fermarci e liberarci di certi apriorismi prima di continuare con la lettura, perché se abbiamo detto che l’automatismo si manifesta anche in un hardware di carne e sangue, il sospetto umanistico che ci risveglia quando sentiamo la congiunzione del concetto di giustizia e intelligenza artificiale dovrebbe anche essere evaporato o, almeno, relativizzato.

E dovrebbe essere relativizzato perché la critica deve concentrarsi sui processi formali che commettono o diventano ingiustizie, indipendentemente dal fatto che siano applicati da operatori legali umani o artificiali. Inoltre, come indica l’autore dell’opera, solo un illusionista può pensare che gli algoritmi non finiranno per assumere un certo ruolo nella magistratura, come sta già accadendo con lo strumento COMPAS nel mondo anglosassone, e che, infatti, è oggetto di analisi nella monografia.

Tuttavia, come l’autore avverte sottilmente nella citazione preliminare, delle macchine, piuttosto, dovremmo temere non la loro esistenza, ma un altro pericolo: che non finiscano per diventare dittatori: «Tu sei il mio creatore, ma io sono il tuo proprietario: obbedisci!»[3]. Frankenstein, come un mostro a cavallo tra l’Illuminismo e il Romanticismo, ci ha già messo in guardia dai limiti dell’intelligenza artificiale e dalle pretese deificate dell’umanità.

Fatte queste precisazioni, siamo meglio attrezzati per godere dello studio del Dr. Pere Simón, perché il lettore ha davanti a sé un’opera che non solo vanta qualità dottrinale da un punto di vista giuridico (quindi può essere letta con le relative formalità al tratto di note e riferimenti), ma può anche essere divorata in un’atmosfera rilassata di riflessione, come una sorta di saggio, per immergerci in una serie di questioni di cui nessuno può essere ignaro.

La critica deve concentrarsi sui processi formali che commettono o diventano ingiustizie, indipendentemente dal fatto che siano applicati da operatori legali umani o artificiali

La monografia è divisa in tre parti: diritto e sistemi giuridici al bivio; custodia cautelare e intelligenza artificiale; e diritti tangibili, garanzie e controlli.

La prima sezione affronta il diritto dal contesto della quarta rivoluzione industriale (tecnologie dell’informazione e IA), ma lo fa da una posizione che evita gli estremi «apocalittici e integrati»[4] a cui l’autore fa riferimento, citando Umberto Eco. Da questa prospettiva, che rivela la saggezza dei greci a non cadere negli estremi, l’autore non sfugge alle potenzialità delle nuove tecnologie, senza cadere nella trappola del discorso ingenuo, così di moda, degli oracoli dell’ottimismo digitale.

Per questo, chi sottoscrive le righe della monografia ci mette anche in guardia da certi pericoli della società digitale, dall’«iperpubblicità e iperaccessibilità dell’informazione»[5], dalla cultura del “tatto” dell’immediatezza, dalle rivendicazioni dei diritti senza i loro corrispondenti doveri. A questo punto, l’autore ci invita ad affrontare questo fenomeno da una prospettiva multidisciplinare e colta, analizzando il diritto con buoni compagni di viaggio come sociologia, psicologia e filosofia, nonché altre discipline che ci permettono di avvicinarci all’oggetto di studio da una critica che arricchisce la riflessione giuridica. Tuttavia, l’autore non dimentica Jellinek e cita la necessità che, dopo tutto, «la legge sia raggiunta attraverso la legge»[6], che è l’obiettivo finale della monografia.

A queste riflessioni preliminari, si aggiunge la necessità di affrontare il fenomeno dell’intelligenza artificiale dalla tesi secondo cui nulla può sfuggire ai suoi algoritmi, in modo che i giuristi non possano (o non debbano) guardare dall’altra parte. In questo modo, si considera se gli androidi o i sistemi tecnologici saranno in grado di emulare la sentenza giurisdizionale e, quindi, sostituire completamente il giudice. Non è una questione banale.

L’ipotesi dell’autore è che l’intelligenza artificiale non possa sostituire il giudizio giurisdizionale, ma possa integrarlo in modo che l’operatore legale possa allontanarsi dai limiti epistemologici dell’essere umano, vale a dire: l’«atavica euristica»[7] a cui l’autore fa riferimento, tra cui l’intuizione distorta e l’automatismo “copia-incolla” nell’emissione di ordini di detenzione provvisoria.

L’ipotesi dell’autore è che l’intelligenza artificiale non possa sostituire il giudizio giurisdizionale, ma possa integrarlo in modo che l’operatore legale possa allontanarsi dai limiti epistemologici dell’essere umano

Così, secondo l’autore, senza sostituirsi al giudice, l’intelligenza artificiale e le macchine: «Possono supportarlo nel prendere decisioni che oggi sono formulate sulla base dell’esperienza e, necessariamente, hanno un germe soggettivo o valutativo, quando non sono formulate sulla base di emozioni, pregiudizi oppure opinioni, sia nella libera valutazione delle prove o in scenari specifici come la ponderazione di interessi fondamentali in gioco quando decido la detenzione provvisoria della persona indagata o la liberazione condizionale del prigioniero»[8].

Il lavoro inoltre non tralascia l’applicazione dell’intelligenza artificiale basata sui Big Data, poiché, come sottolinea l’autore, il cervello umano «non è in grado di valutare in decimi di secondo e prendere una decisione basata su variabili e probabilità, ma la macchina lo è»[9]. Ciò può avere benefici nelle forze dell’ordine, integrandolo con l’analisi predittiva servita dai Big Data quando lo standard deve tenere conto del contesto e dei dati empirici.

Un esempio di ciò, che costituisce l’oggetto principale e centrale della monografia, vale a dire la giustizia cautelare manifestata nell’istituto processuale della custodia cautelare, ci colloca già nella seconda parte del lavoro. Il Dr. Simón, che a questo punto della monografia ci ha già abituati alla riflessione multidisciplinare, ma senza perdere la precisione della specialità, ci avverte di alcuni fatti: «… i giudici non operano nel vuoto. Non possono né dovrebbero. In effetti, nessun essere umano lo fa nelle sue azioni quotidiane. Ciò che accade all’estero ci condiziona, ci affligge e influenza il nostro processo decisionale. È quello che Kahneman (2014), su cui torneremo più avanti a breve, chiama l’effetto del contesto e i legami con l’affetto e l’emozione. O ciò che è stato, a suo tempo, brillantemente esposto da Chayes (1975), quando ci ha avvertito che il giudice non può agire isolato dall’ambiente sociale e le decisioni che prende nelle controversie di interesse pubblico sono il risultato di un dialogo naturale, permanente e inevitabile con altri elementi sociali e politici – accademici, stampa, potere esecutivo, il legislatore, le agenzie amministrative e il pubblico in generale»[10].

Come sottolinea l’autore, il cervello umano «non è in grado di valutare in decimi di secondo e prendere una decisione basata su variabili e probabilità, ma la macchina lo è». Ciò può avere benefici nelle forze dell’ordine, integrandolo con l’analisi predittiva servita dai Big Data quando lo standard deve tenere conto del contesto e dei dati empirici.

A questo punto, siamo avvertiti di un fenomeno cronico, ma che viola gravemente alcuni principi dello stato di diritto, come il sovraccarico delle corti e dei tribunali, sovraccarico a cui il ramo esecutivo ha condannato la magistratura, promuovendo il “copia e incolla” nei file e nelle basi giuridiche, nonché altre scorciatoie che favoriscono l’automatismo a cui abbiamo fatto riferimento all’inizio di questa recensione.

La ricchezza della monografia si nutre anche della capacità di osservazione dell’autore, a cui un tempo ci hanno abituato l’antropologia e la letteratura realistica e naturalistica ottocentesca, ma quasi inesistente nell’evoluzione sconsiderata dell’iperdigitalizzazione della società dell’immediatezza. In questo modo, siamo avvertiti di: «Una tendenza a due lati che ispira le nostre azioni fin dalla più tenera età. Ed è proprio quando osserviamo il comportamento dei nostri figli, i quali operano e pensano senza i limiti dei quadri concettuali che ci hanno autoimposto, che ci rendiamo conto di come e in che misura il processo decisionale umano sia condizionato da quelle due circostanze: stanchezza e comfort potrebbero essere alla base della maggior parte delle decisioni umane. Ancora una volta, nulla spiegherebbe perché il giudice potrebbe sfuggire alla premessa precedente»[11].

Queste condizioni, tra cui sono elencate le emozioni, l’ideologia, la memoria prima facie, la statistica (o «ciò che [rispetto ai giudici] ricordano e che viene in mente quasi automaticamente su casi precedenti»[12] secondo le teorie prospettiche degli psicologi Tversky e Kahneman), l’intuizione, la fatica, l’ancoraggio, ecc.: tutti questi pregiudizi euristici ed epistemologici sono limitazioni umane che potrebbero essere superate, o almeno diminuite, con l’aiuto e il complemento dell’intelligenza artificiale.

Più specificamente, la monografia si chiede come la pubblica accusa e il giudice istruttore adottino rispettivamente le istanze e le misure cautelari, nel contesto procedurale dell’articolo 505 della Legge Spagnola di Procedura Penale (LECrim), considerando che, come sottolinea l’autore, si verifica il seguente paradosso: l’istruttore deve decidere «senza operare nel vuoto – euristica, scorciatoie intuitive ed effetto del contesto – ma operando stricto sensu nel vuoto più completo – senza prove, senza conoscere tutte le variabili in gioco, a volte senza nemmeno aver ascoltato gli argomenti delle parti»[13].

Considerando i limiti cognitivi degli operatori legali, l’autore si rivolge all’intelligenza artificiale giudiziaria per la valutazione del rischio. Nello specifico, viene studiato il software IAJVR e come può contribuire all’efficacia dei principi di idoneità, necessità e proporzionalità, perché come notato nel lavoro, questo tipo di tecnologia potrebbe eliminare qualsiasi «vestigia di affetto ed emozione nel processo decisionale, riducendo le pratiche basate sull’ancoraggio e l’adattamento, nell’automatismo del comodo e del pratico, oggettivando stricto sensu, con una percentuale reale, il livello di rischio che viene evocato e delimitato tenendo conto di tutte le variabili del caso specifico e dei suoi precedenti»[14].

A questo punto l’autore riflette sull’importanza dei database, perché se sono di parte, lo sarà anche l’intelligenza artificiale. Ricordiamo il caso di Amazon[15], in cui un algoritmo era responsabile di fare il lavoro delle risorse umane, basato sulla storia delle precedenti assunzioni. Il risultato è stato scoraggiante: la perpetuazione di un pregiudizio di genere nel reclutamento del personale.

Questo dovrebbe avvertirci che la valutazione del rischio di ripetizione criminale, fuga o distruzione di prove, come finalità costituzionalmente stabilite dal legislatore per giustificare misure provvisorie di privazione della libertà, ed effettuata dall’intelligenza artificiale, può rientrare negli stessi pregiudizi euristici a cui si fa riferimento nella monografia sull’intelligenza umana. Un database che non si sottrae ai pregiudizi sistemici che regnano nel nostro ambiente sociale, sia nei processi di raccolta e stoccaggio, che in quelli di elaborazione e trattamento dei dati, non può generare un’intelligenza artificiale utile come complemento alla giustizia, ma piuttosto uno scenario distopico per alimentare la letteratura di Huxley, Orwell, Bradbury o Dick.

La valutazione del rischio di ripetizione criminale, fuga o distruzione di prove, come finalità costituzionalmente stabilite dal legislatore per giustificare misure provvisorie di privazione della libertà, ed effettuata dall’intelligenza artificiale, può rientrare negli stessi pregiudizi euristici a cui si fa riferimento nella monografia sull’intelligenza umana. Un database che non si sottrae ai pregiudizi sistemici che regnano nel nostro ambiente sociale […] non può generare un’intelligenza artificiale utile come complemento alla giustizia, ma piuttosto uno scenario distopico per alimentare la letteratura di Huxley, Orwell, Bradbury o Dick

Infine, la terza parte affronta le garanzie giuridico-costituzionali che devono essere prese in considerazione di fronte alle sfide tecnologiche, come il diritto di difesa e il principio della pubblicità procedurale. L’autore si chiede se il codice di sistema IAJVR debba essere pubblico. Indubbiamente, un problema simile è già stato oggetto di analisi da parte della dottrina scientifica, specialmente nel campo del diritto amministrativo, dove la pubblicità dei sistemi che prendono decisioni automatizzate è in attesa di giudizio al momento della stesura di queste righe (caso del sistema BOSCO).

In ambito penale, la conoscibilità, la pubblicità e la trasparenza del codice sorgente sollevano gli stessi problemi, anche se, come sottolinea l’autore, i requisiti in questa giurisdizione dovrebbero essere maggiori, soprattutto considerando l’entrata in gioco della segretezza del riassunto, senza dimenticare la recente dottrina costituzionale al riguardo (STC 83/2019, del 17 giugno). Pertanto, si conclude che la suddetta segretezza delle comunicazioni non dovrebbe coprire la segretezza del codice sorgente, tenendo conto dei requisiti costituzionali e normativi (tra gli altri, la direttiva 2012/13/UE, del 22 maggio, sul diritto all’informazione nei procedimenti penali).

La tesi qui difesa è di grande interesse, perché sebbene nel campo del diritto amministrativo la dottrina abbia evidenziato la collisione tra il principio di trasparenza e quello della proprietà intellettuale dei programmatori, in campo penale mantenere la segretezza su tutti questi dettagli del sistema IA significa, secondo l’autore, limitare il diritto di difesa dell’indagato «in cambio di nulla»[16].

Seguendo questa linea di argomentazione, il Dr. Simon indica che una conclusione come quella raggiunta nella sentenza della Corte Suprema del Wisconsin in Wisconsin v. Loomis[17] «è assolutamente impraticabile nel nostro modello, intuitivo per natura e definizione»[18]. E aggiunge: «Che le decisioni giudiziarie possano basarsi in parte su valutazioni del rischio effettuate utilizzando strumenti attuariali digitalizzati o anche sistemi IAJVR, cioè, IA stricto sensu, commercializzati da società private, il cui funzionamento non è divulgato al pubblico o agli indagati o imputati perché considerato segreto aziendale, è una vera e propria aberrazione del sistema che restringe il diritto di difesa»[18].

Come si può vedere, la monografia si nutre anche della giurisprudenza dei tribunali extracomunitari, analizzando così l’evoluzione della giustizia e l’impatto delle tecnologie dell’informazione con casi reali e attuali. Il lettore si trova di fronte ad un’opera completa che evita slogan, argomenti o semplificazioni, tanto più in un’epoca di bombardamento informativo, in cui siamo costantemente esposti a webinar, post, stampa digitale di rapido consumo, ecc. La monografia offre uno spazio sereno di riflessione a cui qualsiasi giurista del XXI secolo dovrebbe prestare attenzione.

_________

* L’autore desidera ringraziare sinceramente il Prof. Dr. Mario Eduardo Maldonado Smith per le sue correzioni idiomatiche e per i consigli relativi al testo della recensione. Inoltre, eventuali errori sono di esclusiva responsabilità dell’autore della recensione.

[1] P. Simón Castellano, Justicia Cautelar e inteligencia artificial, ed. Bosch, 2021, p. 115.

[2] Idem, p. 28.

[3] Idem, p. 11.

[4] Idem, p. 23.

[5] Idem, p. 35.

[6] Idem, p. 26.

[7] Idem, p. 96.

[8] Idem, p. 37.

[9] Idem, p. 39.

[10] Idem, p. 115.

[11] Idem, pp. 115-116.

[12] Idem, p. 116.

[13] Idem, p. 121.

[14] Idem, p. 131.

[15] In questo caso, l’algoritmo incaricato di assumere aveva un pregiudizio di genere basandosi su un database di reclutamento storico, che a sua volta soffriva di questo difetto. Maggiori informazioni a questo link.

[16] P. Simón Castellano, Justicia Cautelar, cit., p. 170.

[17] La sentenza (disponibile a questo indirizzo) ha confermato la legalità dello strumento COMPAS, senza apprezzare una violazione del due process of law.

[18] P. Simón Castellano, Justicia Cautelar, cit., p. 170.

[19] Idem, pp. 170-171.

Altro

A meeting of knowledge on individual and society
to bring out the unexpected and the unspoken in criminal law

 

ISSN 2612-677X (website)
ISSN 2704-6516 (journal)

 

The Journal does not impose any article processing charges (APC) or submission charges