L’analisi

AI Law, come cambiano le sentenze con gli algoritmi: lo scenario



Indirizzo copiato

Approfondiamo le applicazioni dell’intelligenza artificiale nel campo della giustizia, in particolare nell’ambito delle decisioni, per comprendere le differenze con l’attività dei giudici umani e le prospettive

Pubblicato il 23 gen 2024

Antonio D'Aloia

Professore Ordinario di Diritto costituzionale nella Facoltà di Giurisprudenza dell'Università degli studi di Parma



intelligenza artificiale ascani scuola

Nel campo di analisi definito AI Law, è ormai un dato di realtà che la decisione umana (in molti settori, dalla giustizia all’amministrazione, alla sanità, allo scoring creditizio, tanti altri ancora) possa essere sostituita o affiancata/preparata dalla decisione basata su procedimenti di tipo computazionale. Il tema è capire e stabilire cosa e quanto invece riteniamo che debba rimanere riservato alla sfera della decisione umana.

In questo vastissimo ambito, uno dei settori più studiati è proprio quello legato all’applicazione dei sistemi di IA e delle procedure algoritmiche alla decisione giurisdizionale.

AI e giustizia, le prime intuizioni

Oltre cinquant’anni fa Mario Losano, in un volume giustamente ristudiato in questi anni, definiva così il nuovo campo della giurimetria: «La giurimetria si occupa di materie come l’analisi quantitativa del comportamento giudiziale, dell’applicazione della teoria della comunicazione e dell’informazione all’espressione giuridica, dell’uso della logica nel diritto, del reperimento di dati giuridici con mezzi meccanici ed elettronici e della formulazione d’un calcolo della probabilità applicato all’attività giudiziaria. […] la jurisprudence è un’attività razionale; la giurimetria è uno sforzo per utilizzare i metodi della scienza nell’ambito del diritto. Le conclusioni cui perviene la jurisprudence sono semplicemente discutibili; le conclusioni della giurimetria sono invece verificabili. La jurisprudence medita su essenze, fini e valori; la giurimetria studia metodi d’indagine».

Era una fase assolutamente pionieristica nel rapporto tra informatica e diritto. Gli elaboratori elettronici erano (o meglio erano pensati per essere) essenzialmente strumenti di raccolta e conservazione della giurisprudenza, di catalogazione ragionata, al più di ricerca e individuazione di linee di tendenza che il giurista (sia esso giudice, o avvocato, o studioso del diritto) avrebbe usato per svolgere la sua analisi, e trovare soluzioni alle diverse questioni sottoposte al suo esame.

Il tempo dell’AI era ancora lontano dall’assumere i contorni pervasivi che ha assunto oggi, diventando -per dirla con Garapon e Lassegue (2021)- un fatto sociale totale. Anche in quei primi lavori però era possibile cogliere alcune intuizioni sulle possibili evoluzioni della cibernetica verso scenari di sempre maggiore compenetrazione con le attività più tipicamente umane. Losano richiama le riflessioni di Lee Lovinger[1], secondo cui la definizione dei confini della giurimetria «di certo di modificherà ed estenderà, man mano che esprimenti ed esperienze risolveranno problemi specifici»; e Aurel David, nel suo libro su Le cybernétique et l’humain[2], affermerà: «questo libro sarà consacrato al rumore della caduta di buona parte dell’uomo nella materia ed al rumore che la materia fa penetrando impetuosamente nella nostra metafisica e nella nostra morale».

Le sentenze umane e le decisioni della macchina

La macchina che giudica con rapidità e oggettività, che elimina in radice qualsiasi rischio di arretrati  e ritardi nell’amministrazione della giustizia; ma che soprattutto non è condizionata da tutti quei fattori (soggettivi, emozionali, di adeguatezza professionale delle parti e del giudice, finanche di pregiudizi legati al sesso o all’orientamento sessuale, alla razza, alla religione, alla nazionalità) che rendono imperfetta la decisione umana.

In Criminal Sentences: Law Without Order, iconico saggio del 1973, il Giudice Frankel avviò una serie di riflessioni sul rumore nella giustizia penale, che poi vennero sviluppate in moltissimi studi condotti su rilevanti campioni statistici di sentenze penali. Il risultato fu sorprendente, ma chiarissimo nell’evidenziare la dipendenza del giudizio finale da fattori (emozionali, razziali, legati finanche al clima di quel giorno o ad alcune passioni sportive dei Giudici) che avevano poco o nulla a che fare con la condotta, l’atteggiamento psicologico del reo, gli altri elementi oggettivi della situazione portata in giudizio.

Cass Sunstein, nel suo recentissimo Decisions about decisions, segnala 3 diverse tipologie di bias che possono condizionare l’attività decisoria dei giudici, soprattutto in tema di decisioni tra custodia cautelare e libertà su cauzione:

  • Current Offense Bias, in base al quale si tende a dare maggiore risalto all’ultima (o alle ultime) accusa/e contestate ad un determinato soggetto per identificarlo come high-risk o low-risk people;
  • Mugshot Bias, nel senso (spiega Sunstein) che “Judges are more likely to release defendants whose faces are clean and tidy as opposed to unkempt, disheveled, and messy”; infine,
  • Current Symptoms Bias, per certi versi collegato al bias sub a), in base al quale il Giudice (così come il medico) tende a sopravvalutare i comportamenti o i segnali emotivi più recenti e attuali. 

Tornando a Frankel, per questo studioso, in particolare, l’uso dei computer nel processo poteva rappresentare un tassello importante verso l’affermazione del principio di legalità penale come «corpus di regole impersonali, applicabili in maniera generalizzata, vincolante per i giudici come per chiunque altro». In altre parole, la decisione computazionale sarebbe oggettiva, intrinsecamente imparziale, del tutto avulsa dai pregiudizi che appartengono all’esperienza umana (sulla retorica della giustizia “esatta” v. E. Longo, 2023, 55).

Con questa premessa teorica (rapidità, imparzialità, efficienza, minori costi e quindi maggiore accessibilità: v. R. Susskind, On  Line Courts and the Future of Justice, 2019) la transizione verso una giustizia digitale sembra quasi irresistibile.

Il contesto attuale

Nessuna delle obiezioni che possono essere avanzate appare definitiva, almeno non in tutti i settori o momenti procedurali della giustizia. La giustizia è fatta anche di procedimenti ripetitivi e standardizzati, e di decisioni meramente reiterative di precedenti, dove la densità interpretativa e lo sforzo motivazionale appaiono molto bassi, quasi inesistenti.

A questa stregua, credo sia sbagliato affrontare il problema in un’ottica radicale, da tutto o niente. I sistemi di AI possono dare un contributo utile in molte situazioni, sicuramente nei procedimenti seriali e a basso (o inesistente) contenuto motivazionale.

Anche nei casi più complessi, le indicazioni statistico-predittive dell’algoritmo possono servire come base conoscitiva che può esercitare una pressione deflattiva sul contenzioso (quando ad esempio mette in evidenza un chiaro e ripetibile orientamento) o rappresentare il punto di partenza di un confronto che può svilupparsi nello stesso grado di giudizio, o attraverso l’uso dei meccanismi di impugnazione; a condizione però sia comunque rispettato il principio di non esclusività (“il giudice uomo non deve mai essere soppiantato dal giudice artificiale”, scrive G. Zaccaria, 2023, 62, e 65/67).

Algoritmi e garanzie costituzionali

Dal mio punto di vista, motivazione, impugnazione (e ovviamente capacità tecnico-professionale del giudice) restano le garanzie costituzionali fondamentali del processo e della stessa imparzialità del Giudice.

E la macchina appare ancora troppo opaca e incomprensibile (G. Zaccaria, 2023, 57-58) sul perché arriva ad una determinata sintesi, quale peso attribuisce ai diversi elementi e alla combinazione tra di loro. Si vuole che la macchina sia ‘conoscibile’, che le sue logiche di funzionamento siano esplicabili; solo così potremmo avere un surrogato di motivazione. Ma in realtà gli stessi ‘tecnici’ dell’AI ci avvertono che questa possibilità è solo parziale: è John Kleinberg (un ingegnere informatico) a spiegare che  “Forse per la prima volta in assoluto, abbiamo creato macchine che non riusciamo a capire … nel profondo, non capiamo nemmeno come si produce il comportamento che osserviamo, ed è questa l’essenza della loro impenetrabilità” (in F. Foer, 2018, 91).

Nello jus dicere non è importante solo il risultato, o la rapidità (che pure indubbiamente conta, ed è un pezzo del ‘giusto’ processo); ma come ci si arriva, attraverso un confronto pieno ed effettivo delle difese (tra di loro e con il Giudice terzo), dove la qualità della decisione giurisdizionale sia anche il riflesso della capacità del giudice di far emergere la ‘singolarità’ dei fatti e dei contesti umani, di calibrare su di essi la decisione, in particolare (o almeno) su questioni eticamente sensibili, o rivendicazioni concrete inedite, non classificabili statisticamente, difficili da collocare in una dimensione standardizzata.

Appunto, la motivazione (che comprende fatto e diritto, e li connette), emblema di ciò che resta «un’impresa profondamente umana», un’assunzione di rischi, … (una) scommessa sull’umanità che comporta una fallibilità […]» (Garapon e Lassègue, 2021, 252-253 e 278). La motivazione come (assunzione di) responsabilità , mentre l’affidamento  all’algoritmo può tramutarsi in una pericolosa deresponsabilizzazione (E. Longo, 2023, 56).

Ragione ed esperienza nella giustizia

Non tutto può essere ricondotto ai binari schematici della computazione algoritmica. I fatti che il diritto è chiamato a considerare e a regolare presentano una irriducibile varietà, richiedono ragionevolezza, proporzionalità; vanno confrontati con clausole e principi aperti e polisemici; contengono e riversano sul Giudice emozioni, speranze, tutta la complessità dei problemi umani e sociali. Nel 1881, in The Common Law, Oliver Wendell Holmes scriveva che «The life of the Law has not been logic: it has been experience» (G. Zaccaria, 2023, 62, parla di “conoscenza incarnata”, utilizzando una categoria concettuale cara alle neuroscienze, come conoscenza che “si basa sull’esperienza professionale ed umana, …. entro la quale si iscrive lo spazio esistenziale della fatica di scegliere”). La combinazione tra queste due caratteristiche (logica razionale ed esperienza) non è (o almeno non ancora) completamente alla portata delle macchine.

Questa convinzione vale ancora di più sul terreno delle decisioni che riguardano direttamente le persone e la loro libertà. Mi riferisco al processo penale, dove vengono in gioco, come forse in nessun altro sotto-sistema istituzionale, diritti umani fondamentali, come la libertà personale, il diritto alla sicurezza, la dignità umana, il diritto ad un giusto processo e a non essere considerati colpevoli fino a che non venga accertata la propria responsabilità (nella nostra Costituzione definitivamente), il diritto del condannato a sperare nella rieducazione e nel reinserimento sociale (e ad avere gli strumenti per coltivare questa speranza).

La necessità di empatia umana in ambito penale

La giustizia penale ha bisogno dello ‘sguardo’, dello scambio di empatia umana (con tutte le sue variabili rumorose) tra il Giudice e l’imputato (o la vittima). In questo campo gli automatismi possono condurre a risultati irragionevoli, sproporzionati. Nel libro di Kanheman, Sibony e Sunstein (2021, 388-389), viene ricordata la sentenza della Corte Suprema americana nel caso Woodson v. North Carolina, in cui venne giudicata incostituzionale l’obbligatorietà della pena di morte per alcuni reati. Secondo la Corte, ad essere incostituzionale era il fatto di «trattare tutte le persone condannate per un reato designato non come esseri umani unici e individuali, ma come membri di una massa anonima e indifferenziata da sottoporre al castigo cieco della pena di morte».

A parte questo, le prime sperimentazioni di giustizia ‘predittiva’ hanno mostrato (e forse non dovremmo nemmeno sorprenderci giacché l’algoritmo lavora sui ‘nostri’ dati e tra i nostri ‘pregiudizi’) che i dataset  con cui questi sistemi sono allenati e dai quali ricavano predittivamente le loro decisioni, possono essere incompleti, parziali, viziati da bias di varia natura o aggregati in modo da produrre (anche involontariamente) risultati ingiusti o discriminatori, incerti, manipolati, (Floridi, 2022, 151-153; C. Sunstein, 2023, 179-180).

Il caso Loomis

Proprio sul caso Loomis, Nieva Fenoll (2019, 59) ha evidenziato come alcuni dei fattori considerati nel dataset di Compas (come ad esempio: i) precedenti criminali nella sua famiglia e fra i suoi amici; ii) criminalità nella zona di residenza; iii) livello di studi; iv) situazione finanziaria e lavorativa), possono avere un impatto discriminatorio sul piano razziale o sul piano delle condizioni socio-economiche del reo. E spesso le due cose si sovrappongono.

Il ruolo dei precedenti

C’è un ultimo punto critico della giustizia algoritmica. Essa per definizione è costruita sui precedenti, in un certo senso è schiacciata sul passato (E. Longo, 2023, 283284, parla di una ‘logica retrospettiva’, aggiungendo: “Non c’è nulla di predittivo, quindi, almeno se usiamo tale termine nel senso di immagine o anticipo del futuro. Si tratta semplicemente di sistemi semi-automatici per fornire ausili al giudice che non eliminano la necessità del giudizio umano”).

È vero che i precedenti sono un elemento importante, e spesso decisivo, anche nell’attuale forma umana della giurisdizione, anche se non c’è alcun vincolo formale, a parte l’obbligo di adeguarsi ai principi di diritto enunciati dalla Corte di Cassazione per le Corti alle quali viene rinviato il giudizio (E. Longo, 2023, 52). Sul piano costituzionale, è bene ribadirlo, il Giudice è soggetto soltanto alla legge (art. 101, co. 2).

Del resto, se i precedenti non avessero nei fatti un peso nell’esercizio della giurisdizione, non si capirebbe perché una legge francese (loi n. 2019-222) ha espressamente proibito di utilizzare i dati di identità dei giudici a scopo di valutazione, analisi, profilazione, comparazione, previsione delle decisioni (La legge è passata indenne al giudizio del Conseil Const., Décision n. 2019-778 del 21/3/2019; in tema v. G. Zaccaria, 2023, 31).

Tuttavia, per la decisione algoritmica questa sembra una condizione immodificabile, geneticamente legata ai modi della sua formazione. Il diritto umano è invece aperto al dinamismo, alla scoperta di significati nuovi e mai in passato elaborati o concepiti, alla fiducia che un’opinione isolata, perché non ancora giunta a maturazione, possa diventarlo dopo qualche anno, di fronte a contesti culturali e sociali modificati. Come spiega Zaccaria (2023, 53), “i dati inseriti nell’algoritmo sono infatti insensibili al contesto, tanto a quello generale del momento storico, quanto a quello specifico dei casi concreti. Ciò determina un effetto di conservazione, di cristallizzazione e riproduzione del noto”.

In questo c’è la distanza fondamentale tra predittività e interpretazione. Come è stato detto con grande acutezza, la prima ha qualcosa di statico, di uniformante, «accresce il presente» in una sorta di «pietrificazione del tempo» (Garapon, Lassègue, cit., 184-185, e 92-93).

_

Bibliografia

F. Foer, I nuovi poteri forti, Milano, 2018

Marvin E. Frankel, Criminal Sentences: Law Without Order, 1973, Hill & Wang, 1973

A. Garapon, J. Lassègue, La giustizia digitale, Bologna, 2021

D. Kahneman, O. Sibony e C.R. Sunstein, Rumore. Un difetto del ragionamento umano, Torino, UTET, 2021

E. Longo, Giustizia digitale e Costituzione, Milano, 2023

M. G. Losano, Giuscibernetica: macchine e modelli cibernetici nel diritto, Torino, 1969

J. Nieva Fenoll, Intelligenza artificiale e processo, Torino, 2019

Cass Sunstein, Decisions about decisions, Cambridge Univ. Press, 2023

R. Susskind, On Line Courts and the Future of Justice, Oxford Univ. Press, 2019

Oliver Wendell Holmes, The Common Law, London, 1881

G. Zaccaria, La responsabilità del Giudice e l’algoritmo, Modena, 2023


Note

[1] L. Lovinger, Jurimetrics: the metodology of legal inquiry, in Jurimetrics, London-New York, 1963, 8.

[2] Paris, 1965, 30.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2