La tecnologia continua ad avanzare, anche nell’ambito delle professioni giuridiche sotto forma di digitalizzazione dei processi e giustizia predittiva. Diversi giuristi, nel frattempo, monitorano gli sviluppi per evitare gli eccessi. Ma c’è davvero motivo di temere per il futuro?
Giustizia predittiva, ecco i tre pilastri per capire gli impatti della tecnologia sul diritto
Cos’è la giustizia predittiva
Con il termine giustizia predittiva si fa riferimento all’utilizzo di strumenti basati sull’intelligenza artificiale capaci di supportare la funzione legale e giurisdizionale mediante la capacità di analizzare in tempi brevi una grande quantità di informazioni al fine di prevedere il possibile esito – o i possibili esiti – di un giudizio.
Il tema della giustizia predittiva è diventato sempre più centrale quando si parla di digitalizzazione della giustizia, soprattutto in relazione alla necessità di una maggior tutela di determinati diritti legati tra loro dal più ampio principio del giusto processo.
In particolare, secondo i sostenitori della giustizia predittiva, le nuove tecnologie potrebbero rimediare, in primo luogo, all’immobilismo giudiziario causato dal numero crescente di cause, il che genererebbe lesioni al principio della ragionevole durata del processo. Ancora, l’utilizzo dell’intelligenza artificiale viene da molti ritenuto importante per garantire la certezza del diritto, intesa come obiettiva prevedibilità delle conseguenze che l’ordinamento giuridico fissa determinati comportamenti.
Al contempo, c’è anche chi guarda con incertezza e talvolta anche timore a una possibile svolta tecnologica di ampia portata nel mondo delle professioni legali; da un lato per varie disfunzioni applicative dell’AI sul piano etico quando si tratta di assumere decisioni sulle persone, dall’altro per la paura che un’eccessiva digitalizzazione della giustizia possa in qualche modo intaccare il fattore umano.
Ad ogni modo, la tecnologia continua ad avanzare, i progetti in materia crescono, ed i legislatori – anche in Italia – iniziano a rendersi conto di dover governare il futuro prima che arrivi.
Come funziona la giustizia predittiva
Come anticipato, la giustizia predittiva si fonda sull’utilizzo dell’IA allo scopo di prevenire in modo quanto più possibile certo e preciso il possibile esito – o i possibili esiti – di un dato procedimento. Questo dovrebbe avere la funzione di assistere sia gli avvocati nella costruzione della strategia difensiva, sia gli inquirenti per elaborare l’accusa che potrebbe condurre ad una condanna con maggiore probabilità e ai giudici per fornire una definizione della causa il più vicina possibile al concetto di giustizia.
Per fare ciò, il punto di partenza è un database contenente un vasto numero di informazioni rappresentate da provvedimenti di legge e pronunce giurisprudenziali. Dopodiché, gli algoritmi vengono addestrati per elaborare, tramite le tecnologie di machine learning, tutti questi dati.
Una dimostrazione chiara arriva soprattutto da alcuni dei progetti più noti in tema di giustizia predittiva.
Il progetto Lider Lab della Scuola Superiore Sant’Anna di Pisa
Prendiamo come esempio il progetto realizzato dal Lider Lab presso la Scuola Superiore Sant’Anna di Pisa. Tale iniziativa ha portato alla creazione della prima piattaforma di giustizia predittiva per lo sviluppo di una metodologia di analisi del materiale giurisprudenziale coniugando tecniche di machine learning e analisi dei big data allo scopo è quello di offrire un supporto migliore ed un servizio più efficiente a professionisti, cittadini e giudici. La piattaforma segue il meccanismo sopradescritto, partendo da un’ampissima banca dati di materiale giuridico, la quale viene “studiata” ed “elaborata” dagli algoritmi, i quali procedono poi all’allineamento tra il fatto concreto e i dati contenuti nel database, traendo da questo processo un possibile esito del giudizio. Nel caso di specie si parla peraltro di una piattaforma di alto livello, capace di gestire grandi flussi di dati e supportare sofisticati modelli di intelligenza artificiale per l’elaborazione e la comprensione del linguaggio giuridico.
Vediamo che in questo caso si tratta di un’applicazione dell’AI alla giustizia intesa come supporto ai professionisti del settore, dove comunque la decisione finale spetta all’essere umano. In altri termini, la tecnologia interviene ex ante, fornendo all’avvocato o al magistrato delle indicazioni orientative. Tuttavia, con l’intelligenza artificiale si può – potenzialmente – andare anche oltre, toccando possibilità che intimoriscono non pochi addetti ai lavori.
Cosa fa paura dell’AI applicata alla giustizia?
Prima di vedere nuovamente alcuni esempi che consentono di comprendere in modo più chiaro ed immediato, possiamo premettere che i timori nei confronti di una possibile introduzione massiccia dell’AI nel mondo della giustizia concernono soprattutto due temi che paiono distinti, ma che in realtà sono strettamente connessi: l’eventuale perdita d’importanza del ruolo dell’essere umano, e i possibili esiti discriminatori derivanti dall’affidamento all’AI di decisioni aventi ad oggetto persone.
Preoccupano i magistrati robot: il caso cinese
In primo luogo, come anticipato, c’è la preoccupazione che lo sviluppo tecnologico possa condurre, progressivamente, ad affidare un ruolo così importante alle macchine da non aver più bisogno della controparte umana. Si tratta di una preoccupazione che i giuristi condividono anche con altri professionisti. Si pensi ad esempio al campo della medicina, dove il progresso tecnologico ha iniziato a dare le prime dimostrazioni concrete. Appena qualche mese fa, infatti, è uscita la notizia riguardante un “robot chirurgo” di nome Star, progettato dalla John Hopkins University, che è riuscito ad eseguire per quattro volte una laparoscopia su maiali in totale autonomia e in maniera impeccabile, destando tanto stupore quanto timore per il rischio che la precisione e minuziosità delle macchine possano un giorno sostituire i chirurghi umani. Sotto un certo punto di vista le stesse inquietudini riguardano una parte del mondo giuridico.
A tal proposito, secondo una notizia diffusa dal South China Morning Post, la Procura del popolo di Shanghai Pudong – la più grande e attiva della Cina – avrebbe progettato una macchina capace di individuare i crimini più frequenti commessi a Shanghai e presentare accuse con una precisione superiore al 97%. Si tratta quindi di una sorta di “procuratore robot” con bassissimi margini di errore, capace di formulare veri e propri capi d’imputazione tramite gli algoritmi sulla base di una descrizione verbale del caso ed utilizzando oltre 17.000 casi tra il 2015 e il 2020.
Il procuratore “robot” debutta in Cina: così l’IA ora elabora le accuse
In particolare, la macchina riesce a valutare le prove, i presupposti per l’arresto e la pericolosità del soggetto. Peraltro, i PM cinesi avevano già in dotazione alcuni software per la valutazione dei casi, ma nessuno di questi era mai riuscito ad analizzare anche la pericolosità di un sospettato come il nuovo giudice computer. Bisogna però precisare che al momento l’algoritmo riesce ad esprimersi su solo esprime solo su otto reati, tra cui frodi con carte di credito, gestione di un’operazione di gioco d’azzardo, guida pericolosa e lesioni intenzionali.
Secondo lo scienziato capo del progetto, ci sono margini di miglioramento ma non è ancora dato sapere se e quando un robot riuscirà non solo a formulare un’accusa, ma anche a pronunciare una sentenza. Per fare questo, infatti, occorrerebbe un livello di minuziosità e una capacità di elaborazione dei dati ancora lontani da raggiungere per una macchina.
Le derive discriminatorie dell’AI
Un altro tasto dolente quando si parla di intelligenza artificiale è quello relativo all’affidamento alla tecnologia del compito di prendere decisioni concernenti le persone. In alcuni casi, invero piuttosto frequenti, le macchine trovano difficoltà a effettuare valutazioni quando oggetto delle stesse sono persone non caucasiche.
In ambito giudiziario è famoso – oltre che rappresentativo del problema – il Caso Loomis, la vicenda di un cittadino americano che in Wisconsin fu condannato ad una pena determinata sulla base del punteggio assegnato dall’AI.
Si trattava di un uomo accusato di essere alla guida di un’auto usata durante una sparatoria e di non essersi fermato al controllo di polizia. Il giudice, nello stabilire la pena, aveva applicato una sanzione particolarmente severa di sei anni di reclusione utilizzando i risultati di un algoritmo chiamato Compas per quantificarla in peius.
Il software predittivo funzionava analizzando le risposte date a un questionario di 137 domande riguardanti età, lavoro, vita sociale e relazionale, grado di istruzione, uso di droga, opinioni personali e percorso criminale, riuscendo a determinare anche il rischio di recidiva. Nel caso di specie, Loomis era infatti stato qualificato come soggetto ad alto rischio e per questo non era stato condannato non solo per ciò che aveva fatto, ma anche per ciò che avrebbe potuto fare in futuro in base al risultato del questionario elaborato dall’algoritmo.
Vediamo quindi che si tratta di un modo di gestire la giustizia che è ben lontano da quello che conosciamo e che oltretutto cozza con il principio della certezza del diritto.
Non si tratta peraltro dell’unico caso in cui l’intelligenza artificiale conduce a risultati discriminatori e surreali quando deve prendere decisioni. Ad esempio, ci sono stati diversi casi in cui la concessione di mutui era stata subordinata alla decisione degli algoritmi, con esiti che andavano a penalizzare persone non caucasiche, ritenute meno meritevoli di ottenere finanziamenti benché versassero in condizioni analoghe a quelle di richiedenti bianchi. Allo stesso modo, come denunciato da varie associazioni per i diritti umani come Amnesty International, molti problemi sono stati riscontrati anche con il riconoscimento facciale, il quale avrebbe la tendenza a favorire perquisizioni e controlli nei confronti di persone di colore, individuandole a priori come maggiormente inclini a commettere reati.
Questo consente di comprendere le ragioni di chi vuole evitare che venga attribuito troppo spazio alle decisioni assunte dall’intelligenza artificiale. Su questo punto occorre però precisare che, tra i principi cardine del futuro Regolamento europeo sull’AI c’è il divieto assoluto alle tecnologie di punteggio sociale come Compas o le altre macchine utilizzate in ambito creditizio. Questo dovrebbe tenere l’Europa al sicuro dall’utilizzo massiccio di questo tipo di algoritmi.
Conclusioni e prospettive normative: cosa ci aspetta?
In tema di intelligenza artificiale applicata alla giustizia, in Italia e in Europa sono già attivi diversi progetti che seguono gli stessi principi della già menzionata piattaforma ideata presso la Scuola Sant’Anna di Pisa. Per adesso, quindi, si tratta soltanto di un utilizzo degli algoritmi inteso come supporto all’attività dei professionisti del diritto, senza cioè sfociare nell’affidamento ai software di compiti decisionali determinanti nell’ambito di un giudizio come avvenuto con il citato Caso Loomis. La finalità di progetti di questo tipo è quindi quella di fornire agli utenti elementi che consentano di prevedere con margini variabili di certezza il possibile esito di un giudizio, disincentivando anche i casi di liti temerarie ed incoraggiando le parti che non abbiano possibilità di successo a livello giudiziario di seguire altre strade come quelle conciliative. In altri termini, disporre di algoritmi che consentano di capire fin da subito quante possibilità si hanno di ottenere un risultato positivo da un eventuale procedimento giudiziario, permetterebbe di fare una selezione fin da subito delle cause che meritano di essere portate avanti. In questo modo, un avvocato e il suo cliente possono già capire se è opportuno agire in giudizio o meno, evitando spese e inutili sovraccarichi negli uffici giudiziari, con un effetto positivo sulla durata dei procedimenti.
Ebbene, il futuro della giustizia digitalizzata in Italia sembra andare in questa direzione, ed i principi cardine, ribaditi dalla Ministra Mara Cartabia un anno fa, saranno il primato della legge sulla tecnica e, allo stesso tempo, il dialogo tra legge e tecnologia.
La strategia italiana di transizione digitale e le riforme della giustizia faranno quindi in modo di mantenere salda l’indipendenza della magistratura dagli algoritmi, tenendo fermo il controllo umano sulle decisioni. Sempre la Ministra Cartabia ha più volte ribadito che l’intelligenza artificiale può essere un prezioso strumento a supporto dell’attività del giudice, ma che non deve mai diventare un suo sostituto. Una posizione condivisibile, che tiene conto di come l’intelligenza artificiale possa portare un grande valore aggiunto in virtù della sua capacità di raccogliere ed elaborare dati in modi che l’essere umano non può sostenere. Al contempo, però, l’elemento decisionale deve rimanere sempre nelle mani del giudice, che a sua volta può cogliere sfumature e peculiarità del singolo caso, indispensabili per prendere decisioni giuste ed eque. Per questo possiamo dire che da questo punto di vista possiamo mantenere la calma, perché è vero che l’AI sarà presto una novità nella giustizia italiana, ma sempre e solo come supporto, senza che possa in qualche modo decidere le sorti di una causa come un vero e proprio giudice robot.