Giusto processo e intelligenza artificiale[1]: l’impiego di algoritmi in sede giurisdizionale è una realtà concreta ormai da anni e ne fanno uso sia studi legali che, per ora, oltreoceano, i magistrati.
Per esempio, le applicazioni più recenti vedono un “procuratore robot” in Cina, dove un algoritmo elabora le ipotesi accusatorie in piena autonomia[2], ma la questione viene da più lontano, ed è stata anche approfondita seriamente in sede giurisdizionale. Vediamo la situazione.
La sentenza sul caso Loomis
Il precedente più significativo, sul punto, è la sentenza della Supreme Court of Wisconsin, State of Wisconsin v. Eric L. Loomis, Case no. 2015AP157-CR, 5 April – 13 July 2016. In quell’ipotesi un algoritmo (denominato COMPAS, Correctional offender management profiling for alternative sanctions, di proprietà della società Northpointe -ora Equivant), era stato utilizzato per valutare il rischio di recidiva specifica del signor Eric Loomis, dando un esito molto sfavorevole a quest’ultimo.
Nello specifico, secondo COMPAS, Loomis era da identificarsi quale soggetto ad alto rischio di recidiva e non poteva, quindi, accedere a misure alternative alla detenzione carceraria. La Corte Suprema dello Stato del Wisconsin era stata adita proprio per l’impiego dell’algoritmo, che aveva leso – nell’ipotesi difensiva – il diritto ad un giusto processo (due process of law) del signor Loomis[3].
La Corte del Wisconsin ha rigettato l’impugnazione, sostanzialmente affermando che la sentenza di primo grado non sarebbe stata diversa senza i risultati dell’algoritmo[4]. Ma se la sentenza non fosse stata diversa ed il risultato dell’algoritmo fosse solo uno dei molteplici fattori – peraltro non decisivo! – per la sentenza, questo algoritmo, esattamente, a cosa è servito in quel processo?
Gli studi italiani in materia penale ed il quadro normativo nazionale
La dottrina italiana si è interrogata, a sua volta[5], sull’impiego di algoritmi in sede giurisdizionale e sui limiti dell’impiego dell’AI nei processi.
Il processo penale sconta – come tutta la giurisdizione – la problematica della corretta ricostruzione dei fatti mediante un giudizio, necessariamente, probabilistico: da qui l’utopia di affidare ad uno strumento “scientifico” la riduzione, se non addirittura l’eliminazione, dei rischi di errore umano in sede di ricostruzione dei fatti[6].
Allo stato, tuttavia, non è ipotizzabile un impiego di algoritmi nel contesto decisionale del giudice in Italia: lo impedisce – ma nulla vieta che tutto cambi – l’articolo 8 del Decreto Legislativo 51 del 2018, di recepimento della Direttiva UE 16/680[7].
Ogni processo decisionale automatizzato, nel contesto giurisdizionale, è vietato, salvo che non lo prevedano il diritto dell’Unione o dello Stato membro: ad oggi, non c’è una fonte del diritto, nemmeno secondaria, che lo consenta.
Il rischio che il legislatore, per deflazionare i tribunali, abbia la tentazione di affidare ad un’AI, anche “esterna”, alcune decisioni non è, però, trascurabile: allo stato, ciò che blocca le iniziative statali in questo senso, sono i regolamenti in fase di approvazione in sede europea (AI Act su tutti), la scarsa trasparenza degli algoritmi (per diritti di proprietà intellettuale) e la scarsa propensione all’innovazione dimostrata da tutte le componenti della giurisdizione italiana in generale.
Accesso dell’interessato, cosa dice il Consiglio di Stato
La sentenza numero 881 del 2020 del Consiglio di Stato rappresenta un precedente nazionale importante in materia di diritto di accesso dell’interessato. La questione riguardava l’impiego di un algoritmo per effettuare una selezione del personale (nello specifico, per quanto riguardava la valutazione dei titoli e l’attribuzione dei relativi punteggi).
Il tema affrontato, quindi, riguardava non tanto l’impiego dell’IA in sede giurisdizionale, quanto piuttosto il diritto dell’interessato a conoscere la base di programmazione dell’intelligenza artificiale. Il Consiglio di Stato ha affermato che, ai sensi dell’articolo 22,paragrafo 1, del GDPR – letto anche alla luce del Considerando 71 dello stesso Regolamento -, non sono consentiti processi decisionali interamente automatizzati e che, in virtù dell’articolo 15 del GDPR, l’interessato ha il pieno diritto a conoscere la “base algoritmica”[8].
Giova citare per esteso il passo della citata sentenza in argomento: “11.2 In secondo luogo, l’altro principio del diritto europeo rilevante in materia (ma di rilievo anche globale in quanto ad esempio utilizzato nella nota decisione Loomis vs. Wisconsin), è definibile come il principio di non esclusività della decisione algoritmica.
Nel caso in cui una decisione automatizzata “produca effetti giuridici che riguardano o che incidano significativamente su una persona”, questa ha diritto a che tale decisione non sia basata unicamente su tale processo automatizzato (art. 22 Reg.). In proposito, deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatica. In ambito matematico ed informativo il modello viene definito come HITL (human in the loop), in cui, per produrre il suo risultato è necessario che la macchina interagisca con l’essere umano.
La non discriminazione algoritmica
In terzo luogo, dal considerando n. 71 del Regolamento 679/2016 il diritto europeo trae un ulteriore principio fondamentale, di non discriminazione algoritmica, secondo cui è opportuno che il titolare del trattamento utilizzi procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori e al fine di garantire la sicurezza dei dati personali, secondo una modalità che tenga conto dei potenziali rischi esistenti per gli interessi e i diritti dell’interessato e che impedisca tra l’altro effetti discriminatori nei confronti di persone fisiche sulla base della razza o dell’origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell’appartenenza sindacale, dello status genetico, dello stato di salute o dell’orientamento sessuale, ovvero che comportano misure aventi tali effetti.
In tale contesto, pur dinanzi ad un algoritmo conoscibile e comprensibile, non costituente l’unica motivazione della decisione, occorre che lo stesso non assuma carattere discriminatorio. In questi casi, come afferma il considerando, occorrerebbe rettificare i dati in “ingresso” per evitare effetti discriminatori nell’output decisionale; operazione questa che richiede evidentemente la necessaria cooperazione di chi istruisce le macchine che producono tali decisioni”.
L’analisi della sentenza
Se, da un lato, il riferimento all’articolo 15 era – e rimane tuttora – valido e corretto, lo è meno quello all’articolo 22, con relativo Considerando 71. Questo perché tanto l’articolo 22 (al paragrafo 2) che il Considerando 71 prevedono le ipotesi di processo decisionale automatizzato in tutti i casi in cui questo venga consentito sulla base del diritto dell’Unione o del diritto di uno Stato membro.
Dato che, per consolidata giurisprudenza della Corte gi Giustizia dell’Unione europea, anche la prassi amministrativa può essere autonomamente elemento di violazione del diritto dell’Unione – ed impugnata in sede di rinvio pregiudiziale, nel contesto giurisdizionale – nulla vietava che la prassi di demandare in toto la decisione ad un algoritmo fosse, a tutti gli effetti, “diritto di uno Stato membro”.
La Carta etica europea sull’utilizzo dell’AI nei sistemi giudiziari
L’unico “vero” presidio, in materia, è arrivato dalla Cepej[9], che ha enucleato, nel 2018, una serie di principi, contenuti nella Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata dalla CEPEJ nel corso della sua 31 Riunione plenaria (Strasburgo, 3-4 dicembre 2018).
Dopo aver enunciato, nell’Introduzione alla Carta, il principio per cui l’AI in sede giurisdizionale può essere un efficace strumento per rendere i sistemi più efficienti, la Commissione si è espressa in modo estremamente chiaro: “Il trattamento delle decisioni giudiziarie mediante l’intelligenza artificiale, secondo i suoi creatori, può contribuire, in materia civile, commerciale e amministrativa, a migliorare la prevedibilità dell’applicazione della legge e la coerenza delle decisioni giudiziarie, a condizione che siano osservati i principi esposti in prosieguo. In materia penale il suo utilizzo deve essere esaminato con le massime riserve, al fine di prevenire discriminazioni basate su dati sensibili, in conformità alle garanzie di un equo processo”.
In altri termini: tutto quello che può rendere prevedibile – e, quindi, a suo modo, “certa” – la giustizia, deve essere incoraggiato, perché idoneo a favorire scambi commerciali, libertà di stabilimento e ridurre i costi per le imprese. In materia penale, tuttavia, i distinguo sono posti con una locuzione piuttosto “imprecisa”: trapela, in altri termini, una cautela che deriva, forse, dalla sfiducia nella “certezza” degli algoritmi di giustizia predittiva.
I cinque principi della Carta
La Carta, comunque, pone cinque principi, che vanno, di seguito, elencati, secondo le diciture della carta.
- Il principio del rispetto dei diritti fondamentali: assicurare l’elaborazione e l’attuazione di strumenti e servizi di intelligenza artificiale siano compatibili con i diritti fondamentali.
- Il principio di non-discriminazione: prevenire specificamente lo sviluppo o l’intensificazione di discriminazioni tra persone o gruppi di persone.
- Il principio di qualità e sicurezza: in ordine al trattamento di decisioni e dati giudiziari, utilizzare fonti certificate e dati intangibili con modelli elaborati multidisciplinarmente, in un ambiente tecnologico sicuro.
- Il principio di trasparenza, imparzialità ed equità: rendere le metodologie di trattamento dei dati accessibili e comprensibili, autorizzare verifiche esterne.
- Il principio “del controllo da parte dell’utilizzatore”: precludere un approccio prescrittivo e assicurare che gli utilizzatori siano attori informati e abbiano il controllo delle loro scelte.
I primi due principi ed il quinto sono stati chiaramente enucleati nella sentenza Loomis; il terzo ed il quarto, invece, derivano dalle problematiche emerse nello stesso processo, ma non affrontate direttamente nella sentenza, in ragione del segreto industriale.
Detto altrimenti, i principi di qualità e sicurezza e di trasparenza sono finalizzati a garantire che in sede giurisdizionale non vengano impiegati strumenti la cui base algoritmica non sia conoscibile agli attori del processo, ossia parti, avvocati e magistrati.
L’esperimento di Prodigit
Nel 2023 il Ministero dell’Economia e delle Finanze ha stanziato la somma di circa 8 milioni di euro per far sviluppare un sistema di IA nel contesto del processo tributario[10].
Il sistema, in realtà, dovrebbe effettuare un’operazione di summarization delle sentenze di merito, di modo da poter agevolare le operazioni di massimizzazione delle sentenze delle Commissioni tributarie territoriali. Il progetto, chiaramente finalizzato a rendere più efficiente, trasparente e certo il sistema della conoscibilità dei risultati del processo tributario, è certamente in linea con l’articolo 22 del GDPR.
Anche in termini di compliance il lo sviluppo di Prodigit non ha suscitato polemiche. Qualche perplessità, negli operatori è, tuttavia, rimasta. In primo luogo, si è evidenziato il rischio di “profilazione” delle decisioni di un singolo giudice di merito su questioni determinate. Questo perché una summarization massiva effettuata su base nazionale e su tutte le sentenze consente, a tutti gli effetti, di effettuare un’operazione di matching tra giudice relatore e tipologia di decisione.
In assoluto non dovrebbero esserci problemi: si tratta di dati pubblici e non c’è ragione giuridica o di fatto per cui un giudice non debba essere “collegato” ad un suo orientamento in materia. Non tutte le sensibilità, però, sono univoche sul punto. In secondo luogo, la summarization “prelude”, in qualche misura, alla massimazione delle sentenze.
L’attività di massimazione non è un’attività neutra: estrapolare un principio di diritto dalla motivazione della sentenza implica una procedura di astrazione giuridica inversa, dal particolare al generale. In altri termini, se l’attività si summarization non è “neutrale”, non lo sarà nemmeno – di conseguenza – la massimazione. Se dalle massime si vogliono estrapolare principi di diritto e sostenere, ad esempio, che un determinato orientamento è costante o meno, diventano chiare anche le perplessità mosse ad un progetto che opera, prevalentemente, tramite i modelli di ChatGPT.
Qui ci si deve riferire pienamente ai principi della Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, ricordando in particolare, il terzo ed il quarto (ossia qualità, sicurezza e trasparenza). Un sistema basato su un modello di proprietà di terzi del tutto non trasparente nella base algoritmica per evidenti – e necessarie – questioni di proprietà intellettuale non può che destare perplessità negli operatori più consapevoli. Se è pur vero che la summarization non è attività giurisdizionale, è però vero anche che rientra a tutti gli effetti negli ambiti connessi alla stessa.
Conclusioni
Chi controlla il custode? E, nel caso del dell’intelligenza artificiale, chi controlla l’algoritmo? Le maggiori perplessità che arrivano dagli operatori riguardano la trasparenza dei sistemi di IA nel contesto della giurisdizione; in particolare nelle ipotesi in cui queste siano private. Si pensi ad un sistema di IA che si appoggia ad Amazon e che venga, davvero, utilizzato in tribunale: qualcuno si sentirebbe davvero sicuro a far causa alla multinazionale?
Il retropensiero che l’IA possa favorire, in qualche misura, il soggetto che la fornisce non sarebbe affatto ingiustificato. I principi espressi dalla Cepej sono sacrosanti e andranno coordinati con quelli che verranno recepiti in termini di diritto dell’Unione vero e proprio: Ai Act su tutti. Non è possibile sacrificare le garanzie in favore di una pretesa efficienza: il caso Loomis lo esplicita apertamente.
Laddove l’algoritmo irrompe nella giurisdizione, immediatamente il giudice viene, in parte, esautorato della sua funzione in favore di un’oggettività impossibile e di un’efficienza utopica. Nel caso Loomis il risultato, infatti, è stata l’impugnazione di una sentenza che già aveva dovuto giustificare il fatto di non aver quasi preso in considerazione gli esiti dati dall’algoritmo utilizzato. E quindi delle due l’una: o il giudice ha usato l’algoritmo per il proprio convincmento, salvo poi motivare diversamente per evitare contestazioni, o davvero non ha quasi preso in considerazione i risultati dati dal “robot.
Nel primo caso i timori degli operatori sarebbero fondati: la sola presenza dello strumento implica un “rischio” per la giurisdizione, con sacrificio pieno delle garanzie. Nel secondo caso, invece, lo strumento si è rivelato addirittura dannoso, perché ha determinato un’impugnazione: l’esatto opposto dell’efficienza.
_
Bibliografia
M. Borgobello, Manuale di Diritto della protezione dei dati personali, dei servizi e dei mercati digitali, Milano, 2023
S. Carrer, Se l’amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema del Wisconsin, in Giurisprudenza Penale Web, 2019, 4
E. Nagni, Artificial intelligence, l’innovativo rapporto di (in)compatibilità fra machina sapiens e processo penale, in Sistema Penale 7/2021
G. Padua, Intelligenza artificiale e giudizio penale: scenari, limiti e prospettive, in Processo Penale e Giustizia
G. M. Riccio, G. Scorza, E. Belisario, Gdpr e normativa privacy – Commentario, Milano, 2022
G. Tesauro, Diritto dell’Unione europea, Padova, 2012
L. Viola, Interpretazione della legge con modelli matematici, Milano, 2018
_
Note
[1] L’articolo riprende la relazione tenuta dall’autore al convegno sul tema Intelligenza artificiale e processo, organizzato dall’Associazione Nazionale Tributaristi Italiani- Sezione Friuli Venezia Giulia, a Udine il 10 novembre 2023. Il titolo della relazione era, appunto, Giusto processo e intelligenza artificiale.
[2] “Il nuovo strumento, presentato da poco dal professor Shi Yong, direttore del laboratorio di big data e gestione della conoscenza dell’Accademia cinese delle scienze e capo del progetto, ha caratteristiche molto più evolute.
In particolare, è in grado di elaborare accuse per otto reati – quelli considerati più comuni e di semplice gestione – valutando le “prove a carico” e la pericolosità sociale sulla base dei report inseriti da mano umana. L’AI è stata testata ed “abituata” a confrontarsi con reati ritenuti semplici, come frode con carta di credito, esecuzione di un’operazione di gioco d’azzardo, guida pericolosa, lesioni intenzionali, ostruzione ai doveri ufficiali, furto, frode e “provocare/raccogliere provocazioni per litigi e fomentare problemi”. L’ultima “fattispecie”, che nell’ordinamento italiano, probabilmente, verrebbe censurata per eccessiva indeterminatezza, è spesso impiegata per perseguire crimini politici. Il punto è che, mentre i precedenti sistemi di AI impiegati in Cina e in altri paesi sono sostanzialmente strumenti di ricerca o analisi forense, l’ultimo modello presentato dal professor Shi entrerebbe direttamente nel processo decisionale dell’accusa. In altri termini, sarebbe in grado di formulare autonomamente un’accusa a carico di un indagato”. Così M. Borgobello, https://www.agendadigitale.eu/documenti/giustizia-digitale/il-procuratore-virtuale-debutta-in-cina-cosi-lia-ora-elabora-le-accuse/.
[3] “Loomis depositava un’istanza di revisione della pena lamentando che la decisione del tribunale circondariale, nel prendere in considerazione i risultati del COMPAS, aveva violato il proprio diritto ad un processo equo. Nella seconda udienza post-condanna, la difesa di Loomis chiamava a testimoniare un esperto, il quale dichiarava che lo strumento COMPAS non era stato concepito per l’utilizzo nelle decisioni di incarcerazione. Secondo il consulente, la corte che prende in considerazione i risultati forniti dall’algoritmo incorre fortemente nella probabilità di sovrastimare il rischio di recidiva individuale e di determinare la pena dell’imputato sulla scorta di fattori ininfluenti. Inoltre, affermava che i tribunali posseggono poche informazioni sul processo di analisi del rischio effettuato da COMPAS, non sapendo ad esempio come il sistema compia la comparazione della storia individuale dell’imputato con quella del gruppo di popolazione preso a riferimento, né se tale gruppo di individui appartenga al medesimo stato americano.
Il Tribunale circondariale rigettava l’istanza di revisione, sostenendo che la pena inflitta sarebbe stata la medesima, a prescindere dalla considerazione dei risultati COMPAS. Loomis impugnava tale decisione e la Corte d’Appello rimetteva la questione alla Corte Suprema del Wisconsin”. Così S. Carrer, Se l’amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema del Wisconsin, in Giurisprudenza Penale Web, 2019, 4.
[4] “Sulla scorta delle limitazioni enucleate, i giudici supremi hanno concluso che nel caso di specie il punteggio di rischio è stato solo uno dei numerosi fattori considerati dal tribunale nel determinare la pena, fattori che Loomis non aveva contestato. La Corte ha osservato che, sebbene si fosse fatto riferimento ai risultati COMPAS nel determinare la pena, i giudici avevano attribuito al fattore di rischio un peso minimo, affermando addirittura che la sentenza non sarebbe stata diversa in assenza dei dati forniti dallo strumento”, ibidem.
[5] Si veda, prima di tutti, G. Canzio. “Le decisioni delle Corti statunitensi hanno suscitato – com’era largamente prevedibile – serie e fondate critiche da parte della comunità dei giuristi con riguardo al rischio di distorsioni cognitive dello stesso algoritmo (Bias Automation), per l’opacità del database, l’indeterminatezza del codice sorgente, l’automatica implementazione del software, l’accreditamento di pratiche discriminatorie. Di qui l’intervento della comunità internazionale (si veda, ad esempio, la “Carta etica sull’uso dell’intelligenza artificiale nei sistemi giudiziari e nel loro ambiente”, adottata il 3 dicembre 2018 dalla Commissione europea per l’efficienza dei sistemi di giustizia – CEPEJ –), diretto ad assicurare che l’utile arricchimento delle fonti informative del giudice e le predizioni del modello statistico-matematico si coniughino sempre con il nucleo epistemologico tradizionale delle garanzie del giusto processo e rispondano comunque a criteri di specifica responsabilità dell’uomo. La coerenza logica del calcolo algoritmico va verificata in un processo d’integrazione fra le misurazioni quantitative, ricche e imponenti, da esso offerte con il percorso cognitivo e decisorio del giudice, nel rispetto dei metavalori dell’ordinamento. Insomma, sembra avere titolo ad accedere al processo penale soltanto lo standard “debole” della intelligenza artificiale, che consenta all’uomo di mantenere comunque il controllo della macchina. Come, d’altra parte, già avvertiva la S.C. del Wisconsin nella sentenza Loomis (il software COMPAS “… should be always constitute merely one tool available to a Court, that need to be confirmed by additional sound informations…”), anche le linee guida della citata Carta etica europea rimarcano il criterio della non esclusività del dato algoritmico per la decisione, che dev’essere viceversa riscontrato – corroborato – da ulteriori e diversi elementi di prova (sul punto, v. anche l’art. 8 del D.lgs. n. 51/2018 in tema di privacy). Come pure meritano rilievo gli ulteriori criteri, indicati dalla Carta, della tutela dei diritti fondamentali della persona, della non discriminazione, della trasparenza, equità e comprensibilità dei metodi di elaborazione dei dati informatici, della controllabilità dei percorsi di calcolo, della qualità e attendibilità scientifica del risultato. Dunque: fitness, ma anche discovery, corroboration, accountability”.
[6] Si veda, sul punto, G. Padua, Intelligenza artificiale e giudizio penale: scenari, limiti e prospettive, in Processo Penale e Giustizia: “Sebbene il campo investigativo e probatorio sia il terreno d’elezione principale per l’uso di tecnologie basate sull’intelligenza artificiale, gli algoritmi non esauriscono la propria collocazione in queste fasi processuali ma sono destinati ad applicazioni che riguardano direttamente il momento “decisorio”. Il trait d’union tra la decisione umana e quella, per così dire, “robotica” è da ricercare nello sforzo incessante della disciplina processualpenalistica verso una maggiore oggettivizzazione della giustizia, che attiene alla necessità di garantire, in uno Stato di diritto, una decisione che sia il più possibile equa, imparziale, razionale e auspicabilmente incontestabile. In questo senso, il concetto di giustizia predittiva, intesa strettamente come la possibilità di «prevedere la probabile sentenza, relativa ad uno specifico caso, attraverso l’ausilio di algoritmi», è correlato in maniera evidente all’esigenza di prevedibilità cui è orientato il sistema penale nel suo complesso. Per un verso, la prevedibilità va letta come necessità di poter prevedere, sul piano giuridico, le conseguenze delle proprie azioni. Così intesa, è diretta espressione del principio di legalità ex art. 25, comma 2, Cost. che governa tutto l’impianto del diritto penale e garantisce la piena autodeterminazione in ordine ai comportamenti sociali. Per altro verso, la prevedibilità consiste nella possibilità di avere effettiva contezza dell’esito di un processo. Se la finalità è quella di poter prevedere le conseguenze delle proprie azioni, viene da sé che tale scopo non può dirsi realizzato se non eliminando le tracce di arbitrarietà che possono contaminare una vicenda giudiziaria”.
[7] Si veda, sul punto, E. Nagni, Artificial intelligence, l’innovativo rapporto di (in)compatibilità fra machina sapiens e processo penale, in Sistema Penale 7/2021, pagina 16.
[8] Si veda, sul punto, M. Borgobello, Manuale di Diritto della protezione dei dati personali, dei servizi e dei mercati digitali, Milano, 2023, pagg. 419-425.
[9] Ossia la Commissione europea per l’efficienza della giustizia (CEPEJ).
[10] Si veda, sul punto, questo sito.