Credits to Unsplash.com
07.07.2021
Elisabetta Pino

Intelligenza artificiale e diritto

Perché le tecnologie di IA sono una grande opportunità per il diritto.
Recensione del volume di Amedeo Santosuosso

Fascicolo 7-8/2021

«Non vi è niente di artificiale nell’intelligenza artificiale». Così esordisce Amedeo Santosuosso nel suo libro “Intelligenza artificiale e diritto”, edito da Mondadori (2020).

L’Autore da anni concentra i suoi interessi professionali e scientifici sull’innovazione: è infatti Professore di Diritto, scienza e nuove tecnologie presso l’Università di Giurisprudenza di Pavia, dove è anche Presidente del Centro di Ricerca Interdipartimentale European Centre for Law, Science and New Technologies – ECLT, è altresì Responsabile per l’innovazione tecnologica della Corte di Appello di Milano, e membro della Commissione mondiale dell’UNESCO sull’etica della conoscenza scientifica e tecnologica, dove si occupa attualmente proprio di intelligenza artificiale.

Conscio della complessità della materia ma anche della sua strategica importanza, l’Autore fornisce preliminarmente al lettore una mappa che lo agevoli ad orientarsi facilmente nel mondo dell’IA, accompagnandolo con uno stile lineare e semplice, e mai artificioso, che incentiva anche il profano alla comprensione. Al contempo, però, attraverso l’inserimento di numerosi interrogativi e questioni controverse, meritevoli di attenzione sul piano etico e giuridico, fornisce nuovi spunti di riflessione anche al lettore più addentro a queste tematiche.

Riferendosi a definizioni di scienziati e filosofi come Norvig e Russell, il prof. Santosuosso mette bene in chiaro come «il tema unificante dell’IA è l’idea di un agente intelligente […] che implementa una funzione che mette in corrispondenza sequenze percettive e azioni».

L’Autore si preoccupa inoltre di porre in evidenza, sin dall’esordio del libro, che l’origine dell’IA, per quanto possa sembrare lontana dall’essere umano, derivi proprio dall’uomo e dalla sua visione: «l’IA è ispirata da persone, è creata da persone, e cosa più importante, incide sulle persone». È quanto afferma la scienziata americana Fei Fei Li, co-direttrice dello Standford Institute for Human-Centered Artificial Intelligence, frequentemente citata dal nostro Autore. Tale ispirazione dell’IA all’uomo, tuttavia, incontra anche i medesimi limiti che si hanno nella conoscenza dell’uomo, in particolare per quanto riguarda la conoscenza della complessità e del funzionamento del cervello umano, in specie l’insieme delle sue capacità cognitive.

L’Autore passa, quindi, ad indagare la relazione tra l’IA e il diritto sotto due profili: la regolamentazione dell’IA attraverso la previsione di regole giuridiche, e l’attitudine dell’IA ad influire sulla gestione del diritto.

Per quanto attiene al primo profilo, l’Autore non manca di far presente l’orientamento, ormai prevalente, di introdurre delle regole per l’IA, ma non nasconde la complessità di tale operazione. Cosa bisogna regolare? Quali regole adottare?

Numerosi interventi in merito sono stati intrapresi a livello europeo e internazionale. Il Prof. Santosuosso sottolinea come nel 2019 la stessa UE abbia elaborato delle Linee guida etiche per un’intelligenza artificiale affidabile[1], che fondano l’affidabilità dell’IA non solo su una base tecnico-giuridica, cioè vincolata da leggi e regolamenti, ma anche su una base etica, ossia conforme a principi e valori radicati nei diritti fondamentali.

Muovendosi verso il secondo profilo, l’Autore riporta un timore sempre più diffuso tra i professionisti del diritto: quello che, all’avanzare della tecnologia, essi vengano sostituiti da macchine intelligenti, in considerazione non solo della notevole velocità con cui queste elaborano e analizzano ingenti quantità e volumi di dati (big data), ma anche della loro rapidità nel fornire risposte attraverso l’utilizzo di sistemi di machine learning, sistemi grazie ai quali sembrerebbero superabili alcune limitazioni cognitive dell’uomo che, di fronte all’analisi di dati, può essere sopraffatto da pregiudizi (bias), come la tendenza a dare smisurata importanza alle prime informazioni ricevute (anchoring), o la tendenza a sopravvalutare solo gli elementi che confermano un’idea e non quelli che la contraddicono (confirmation bias).

Contribuisce ad incrementare il timore dei professionisti la capacità di predizione delle decisioni, una funzione già testata nel 2016 sulle decisioni della Corte europea dei diritti dell’uomo, e nel 2017 sulle decisioni della Corte suprema Federale degli USA[2]. Questi studi riportati dall’Autore rivelano risultati di grande successo in termini di accuratezza della macchina nel prevedere le potenziali decisioni delle Corti.

L’utilizzo di un affidabile sistema di predizione dell’IA inciderebbe, in realtà, sull’intero sistema giudiziario. Tuttavia, secondo l’Autore, bisognerebbe mutare la forma mentis dei giudici e «riuscire a cambiare l’idea che le tecnologie servano a supportare le procedure cartacee mentre esse in realtà servono a innovare radicalmente i processi».  L’analisi dei big data, infatti, oltre all’esame di grandi quantità di dati, potrebbe consentire la scoperta di correlazioni nascoste e di nuove informazioni.

Nonostante il processo predittivo basato sull’IA possa risultare accurato e affidabile, l’Autore non nega tuttavia l’esistenza di bias, tra cui la possibile incomprensibilità o inspiegabilità per la mente umana dei risultati elaborati dalla macchina. Infatti, la macchina non segue un rule-based decision making, cioè un processo decisionale basato su regole chiaramente definite, bensì un processo decisionale basato su dati, cha l’Autore definisce data-driven decision making. Trattasi di un sistema in cui la decisione viene presa dalla macchina in base a ciò che emerge da algoritmi di apprendimento automatico (machine learning), basato su un metodo inverso a quello tradizionalmente usato dagli umani, metodo che parte dai dati osservabili in concreto per ricostruire un modello generale. I risultati prodotti si basano sulle esperienze e sulle regolarità statistiche acquisite tramite algoritmi di machine learning, risultati che, per quanto accurati, potrebbero non corrispondere alla ragionevolezza umana. Data, infine, la difficoltà a spiegare ogni passaggio decisionale, l’uso dell’IA sembrerebbe incompatibile con l’obbligo di motivazione delle decisioni giudiziarie.

D’altro canto, il prof. Santosuosso opportunamente rileva che già oggi numerose sono le critiche rivolte alle motivazioni giudiziarie elaborate dal “giudice-uomo”: si rimprovera, per un verso, che siano superflue per cause di poco valore per le quali si prevedono motivazioni stereotipate e, per altro verso, che siano troppo spesso estremamente semplicistiche e riduttive rispetto al reale lavoro logico che guida il giudice. Ad ogni modo, non sarebbe opportuno, secondo l’Autore, escludere del tutto l’IA dai processi decisionali, dal momento che proprio grazie ad essi «l’invisibile che viene reso visibile», in virtù della loro capacità di mettere in luce elementi che l’essere umano non prenderebbe in considerazione per dimenticanza o per bias cognitivi. Un sistema di IA riuscirebbe, dunque, a far emergere e correlare dati che l’uomo non riuscirebbe a vedere, anche se sotto i suoi occhi.

Una delle tematiche di maggiore rilevanza trattate dall’Autore è il dibattito internazionale sullo status legale dei robot e dell’IA in generale: la lente di ingrandimento dell’Autore è posta, in particolare, sullo “scandalo” provocato nel 2017 da una risoluzione del Parlamento europeo con cui si attribuì ai robot lo «status di persone elettroniche»[3], capaci di prendere decisioni autonome e di interagire liberamente con terzi, e quindi responsabili dei danni eventualmente provocati.

L’Autore riporta le immediate critiche a questa proposta e, in particolar modo, quelle del Comitato economico e sociale europeo (CESE) che parlò in proposito di «un rischio inaccettabile di azzardo morale» e di un «rischio di abuso»[4]. Secondo ulteriori critiche che trasferirono la questione sul campo penale, la personalità degli enti societari sarebbe ancor più evidenziata dal fatto che essi non agiscono in modo autonomo, in quanto gestiti e condotti comunque da persone fisiche che rispondono penalmente in ultima istanza.

In conclusione, come evidente, sebbene l’Autore tratti una molteplicità di argomenti eterogenei, essi sono mirati a presentare nell’epilogo del libro un nuovo campo di ricerca, quello del diritto molecolare: il diritto è frammentato, è un insieme di molecole giuridiche con la capacità di aggregarsi e disaggregarsi. L’Autore smentisce la visione negativa che potrebbe derivare dalla frammentazione, che non è sintomo di incoerenza e incertezza, bensì è lo strumento attraverso il quale il diritto diventa dinamico in quanto capace, per un verso, di legarsi ad altri sistemi ed essere dunque «inter-operativo» e, per altro verso, di essere limitato nella sua capacità aggregatrice da una «funzione immunitaria» che garantisce ragionevolezza e logicità alle aggregazioni. È una nuova prospettiva di diritto che, seppur frammentato, resta riconoscibile. Ed è qui che l’Autore inserisce l’intelligenza artificiale, strumento essenziale per costruire nuove regole di compatibilità del diritto.

Il Prof. Santosuosso illustra ai suoi lettori ogni argomento in modo schietto ed equilibrato. Di fronte alla complessità e all’estrema innovazione della materia trattata, riconosce e comprende, infatti, la visione scettica e timorosa di molti, senza porsi in netta contraddizione con essa. Il metodo di scrittura è estremamente imparziale: l’Autore non nasconde le preoccupazioni e i rischi derivanti dall’applicazione di questa nuova forma di tecnologia e, al contempo, si preoccupa di chiarire non solo quali siano i suoi vantaggi, ma anche quali possano essere le soluzioni alle incertezze. La comprensività e la ragionevolezza costituiscono un approccio prudente che l’Autore sembra suggerire alla materia: un approccio realistico e intermedio tra assoluta utopia ed estremo scetticismo.

 

___________________

[1] Il testo (anche in italiano) delle linee guida può essere consultato a questo indirizzo.

[2] N. Aletras, D. Tsarapatsanis, D. Preoţiuc-Pietro, V. Lampos, Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective, 24 ottobre 2016; D.M. Katz, A general approach for predicting the behavior of the Supreme Court of the United States, in Plos ONE, 12 aprile 2017.

[3] Cfr. Parlamento europeo, Risoluzione del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)), 18 luglio 2017, punto 59, lett. f).

[4] Cfr. Parere del Comitato economico e sociale europeo su «L’intelligenza artificiale — Le ricadute dell’intelligenza artificiale sul mercato unico (digitale), sulla produzione, sul consumo, sull’occupazione e sulla società» (parere d’iniziativa), 31 agosto 2017, punto 3.33.

Altro

Un incontro di saperi sull’uomo e sulla società
per far emergere l’inatteso e il non detto nel diritto penale

 

ISSN 2612-677X (sito web)
ISSN 2704-6516 (rivista)

 

La Rivista non impone costi di elaborazione né di pubblicazione