In Italia, la Corte d’appello di Brescia usa da più di un anno ormai un algoritmo il cui obiettivo è mettere a disposizione una banca dati ragionata e trasparente, da cui possano emergere orientamenti giurisprudenziali per adottare le più opportune decisioni. Esso favorisce inoltre la circolarità della giurisprudenza di merito tra primo e secondo grado.
Un altro progetto messo in atto al Tribunale di Genova mira a ricreare e mimare i ragionamenti legali alla base dell’adozione di certe misure nelle sentenze, così da rendere prevedibili ulteriori decisioni future sulla stessa materia con l’obiettivo di evidenziare la ratio dietro a ogni decisione.
Polizia e giustizia predittive: cosa sono e come vengono applicate in Italia
Dall’IA strumento di aiuto dei giudici al “giudice robot”
Se i sistemi decisionali automatizzati utilizzati nei Paesi europei sono maggiormente – ma non solo – volti a mettere a disposizione una banca dati ragionata e trasparente dalla quale possono emergere orientamenti giurisprudenziali o per ricreare un ragionamento giuridico, altri Stati hanno sviluppato algoritmi che possono venire utilizzati per determinare se la cauzione, una condanna alla libertà vigilata o la liberazione condizionale possono essere applicate in casi particolari elaborando il rischio di fuga o recidiva.
Cos’è la giustizia predittiva
La giustizia predittiva può definirsi come la “capacità data alle macchine di convertire rapidamente nel linguaggio naturale la legge applicabile per trattare un caso giudiziario, di inserirla nel contesto in base alle sue caratteristiche (luogo, personalità dei giudici, avvocati, ecc.) e di anticipare la probabilità che si possa verificare una determinata decisione”.[1]
Ne attesta il celebre caso di Compas negli Stati Uniti, algoritmo predittivo utilizzato nei procedimenti penali che ha sollevato preoccupazioni per quanto riguarda i diritti fondamentali come il diritto ad un processo equo e il diritto alla non discriminazione. Il diritto a un processo equo era proprio in gioco nel caso Loomis[2] in cui il ricorrente ha sostenuto che la classificazione degli individui per gruppi di profili poneva un grave problema per quanto riguarda il principio di individualizzazione delle pene. La Corte Suprema del Wisconsin non ha seguito gli argomenti di Loomis sulla base del fatto che i rapporti di indagine basati sulle previsioni dell’IA non erano l’unico motivo e possono, in ogni caso, essere ignorati dal giudice. Tuttavia, la metodologia dell’algoritmo – in particolare il peso di ciascuna delle variabili nel calcolo finale – non viene divulgata al giudice o al condannato, il che comporta delle criticità anche dal punto di vista dell’equità del processo.[3] Inoltre, a seguito di questo caso il funzionamento di Compas è stato esaminato dalla ONG ProPublica. Da questo studio è emersa non solo una mancanza di trasparenza riguardo al funzionamento del software, ma anche che i dati elaborati hanno portato a risultati discriminatori poiché calcolava una probabilità di recidiva maggiore del 77% per i soggetti neri rispetto ai bianchi.
Giustizia predittiva: la dignità umana faro per l’AI nei processi
Un sistema di apprendimento automatico simile è stato sviluppato nel Regno Unito dall’Università di Cambridge ed è in grado di analizzare fino a 34 categorie di dati per prevedere la probabilità di recidiva. Lo strumento non viene però utilizzato al momento per determinare le decisioni giudiziarie su cauzione o condanna, ma solo per informare la selezione dei candidati per un programma di riabilitazione. Tuttavia, dai tribunali del Regno Unito provengono altri esempi di quanto può accadere quando ci si affida ciecamente all’IT. Lì, un elemento informatico relativamente semplice determina la capacità finanziaria degli (ex) coniugi nelle procedure di allocazione degli alimenti. Le parti compilano un modulo PDF ed il sistema informatico calcola la capacità risultante. A causa di un piccolo errore, passato inosservato, sono stati effettuati calcoli errati in 3.638 casi tra aprile 2011 e gennaio 2012, e tra aprile 2014 e dicembre 2015. I debiti, invece di essere detratti, erano stati aggiunti al patrimonio, quindi i beni presi in considerazione erano troppo alti.[4] Similarmente, in Australia, un team di avvocati ed esperti di intelligenza artificiale ha iniziato a sviluppare il sistema “Split-Up” che utilizza il ragionamento basato su regole e reti neurali per prevedere i risultati di controversie sulla proprietà nei divorzi e in altri casi di diritto della famiglia.
In Estonia, uno dei paesi più all’avanguardia nel campo dell’IA, essa è considerata molto più di uno strumento che aiuterà a ottimizzare e migliorare il sistema giudiziario. Lo Stato baltico scommette infatti sul fare dell’IA un giudice sollevando l’idea che i robot possano agire come giudici virtuali. Il “giudice robot” sarebbe così in grado di giudicare controversie di modesta entità, inferiori a 7.000 euro. L’idea sottostante è che un “giudice robot” per piccoli casi aiuterebbe senza dubbio a gestire le pratiche burocratiche, il processo decisionale e renderebbe i servizi giudiziari molto più efficienti. Ott Velsberg, Chief Data Officer del governo estone, è stato incaricato di progettare uno strumento di intelligenza artificiale per affrontare casi giudiziari arretrati nel quale le due parti caricano documenti e altre informazioni pertinenti e il sistema di intelligenza artificiale emette una decisione che può essere appellata a un giudice umano. In questo modo, l’Estonia cerca di trattare dozzine di casi che i giudici e gli impiegati dei tribunali non possono attualmente trattare.[5]
La persona sempre al centro della giustizia (e dell’IA)
Considerando che le tecnologie si stanno sviluppando molto rapidamente e toccano ogni sfera della vita umana, è molto probabile che la giustizia predittiva continuerà la sua espansione. Pertanto, è fondamentale utilizzare un approccio prospettico e strategico che garantisca la trasparenza, l’audit e il controllo degli algoritmi utilizzati e, soprattutto, l’implementazione e il rispetto dei principi etici di utilizzo delle tecnologie nella sfera della giustizia. La giustizia predittiva, infatti, si occupa dei diritti umani e per essere una tecnologia efficiente e non dannosa i principi etici non possono che essere il punto base di tali sistemi dal momento della progettazione di qualsiasi tecnologia di questo tipo fino al momento del suo utilizzo e del suo controllo dal lato umano. Il ruolo del giudice umano in ogni caso non può essere ridotto.[6]
In questo senso, il Consiglio di Stato dei Paesi Bassi ha raccomandato che i principi di buon governo, e in particolare il principio di motivazione delle decisioni e il principio di due diligence, dovrebbero essere interpretati in modo più rigoroso nel contesto della digitalizzazione. Ciò significa, tra le altre cose, che una decisione deve spiegare quali regole (algoritmi) sono state utilizzate e quali dati sono stati copiati da altri organi amministrativi. Ciò rafforzerà la posizione dei cittadini nel processo decisionale automatizzato, garantendo inoltre, nella fase di opposizione a decisioni automatizzate, un riesame personalizzato e umano della causa.[7]
L’utilizzo delle nuove tecnologie nel settore giudiziario rappresenta una indubbia evoluzione ed è in grado di portare a una sempre maggiore efficienza della giustizia. Allo stesso tempo, però, la prospettiva di “giudici robot” frutto di algoritmi predittivi che vadano oltre i sistemi di assistenza fa emergere molte criticità attinenti in particolare al rispetto del principio di dignità umana. Pertanto, l’utilizzo di sistemi di procedimento decisionale nella giustizia deve rimanere uno strumento di assistenza dei diversi attori, ma non potrà mai sostituirsi al ruolo centrale del giudice, persona umana, pilastro fondamentale della giustizia.
Note e bibliografia
- A. Garapon, J. Lassegue, Justice digital, Revolution graphique et rupture anthropologique, PUF, 2018, pp. 219–364. ↑
- State of Wisconsin c. Loomis, 881 N.W.2d 749 (Wis. 2016). ↑
- F. G’sell, « Les progrès à petits pas de la “justice prédictive” en France », ERA Forum, 2020, pp. 301-302. ↑
- A. D. Reiling, “Courts and Artificial Intelligence”, International Journal for CourtAdministration, 2020, 11(2), p.7. ↑
- R. Rajput, “Can AI Be Fairer Than a Human Judge in the Judicial System?”, ReadWrite, 2020, https://readwrite.com/2020/05/14/can-ai-be-fairer-than-a-human-judge-in-the-judicial-system/. ↑
- Myltseva Veronika, “The legal nature and principles of the predictive justice”, Recht der Osteuropaischen Staaten – R.E.O.S., 03/19, p. 62. ↑
- A. D. Reiling, Op. cit., p. 7. ↑