L'APPROFONDIMENTO

Intelligenza artificiale e Giustizia, opportunità e rischi: i limiti che servono

Alla pretesa terzietà, indifferenza al contesto e, per questo, equità dell’algoritmo si affidano scelte progressivamente più significative per i singoli e per la società, attendendosene prevedibilità, esattezza, infallibilità, in una parola: giustizia. Ma quali sono i rischi e come circoscriverli?

Pubblicato il 25 Feb 2021

Federica Resta

Dirigente presso il Garante privacy*

L’applicazione degli strumenti di intelligenza artificiale al campo della giustizia, sebbene non sia da respingere in toto, dovrebbe essere circoscritta chiaramente e con molta attenzione. Questo per non rinunciare al bisogno insopprimibile di non de-umanizzare alcune attività (tra cui, come vedremo, quella giurisdizionale, in particolare penale) in cui la soggettività gioca un ruolo non sostituibile, in nessun modo, da alcun calcolo.

Intelligenza artificiale e adozione

Esiste qualcosa di più autenticamente e irriducibilmente umano della scelta dei genitori adottivi? Forse no, se si considera che alla correttezza di quella scelta è rimessa la scommessa dell’adozione: quella di ricreare quanto di più inimitabile esista, ovvero il rapporto tra genitori e figli. Ecco, dunque, la delicatezza e la profondità dell’apprezzamento rimesso a chi debba selezionare, tra le coppie candidate, le migliori a ricreare quel legame con un figlio che non è il loro ma che devono riuscire a rendere tale. Ed ecco anche l’esigenza di un vaglio quantomai attento, capace di proiettare ogni parola, ogni sfumatura, ogni gesto dei candidati genitori in quello che potrebbe essere il futuro rapporto familiare.

Ebbene, apprendere che persino per (le fasi preliminari di) questa valutazione si faccia ricorso, ad esempio in Florida, agli algoritmi (espressione di una ritenuta “compassion-driven technology”), dà la misura della pervasività dell’intelligenza artificiale nelle nostre vite.

Se, infatti, persino per valutazioni così squisitamente umane si sente il bisogno di “deumanizzare” il giudizio, astrarlo da quelle componenti (anche) emozionali, che inevitabilmente connotano decisioni così complesse, vuol dire allora che carichiamo la potenza di calcolo di aspettative talmente determinanti da risultare quasi escatologiche.

Alla pretesa terzietà, indifferenza al contesto e, per questo, equità dell’algoritmo si affidano scelte progressivamente più significative per i singoli e per la società, attendendosene prevedibilità, esattezza, infallibilità, in una parola: giustizia. E tuttavia, spesso si sottovaluta il potere performativo dell’intelligenza artificiale, non così neutro come ci si attende né immune dal rischio di cristallizzare e, paradossalmente, amplificare le precomprensioni (quando non addirittura i pregiudizi) insiti nella mente di chi lo progetta.

Regolare l’evoluzione della tecnica: le proposte Ue

E se è ragionevole attendersi che nei prossimi anni l’Intelligenza Artificiale assumerà un ruolo ancor più centrale nelle dinamiche economiche, sociali, finanche politiche, bene ha fatto il Parlamento europeo, tra ottobre e gennaio, a impegnare la Commissione all’adozione di proposte legislative su alcuni punti cardine per una disciplina essenziale in materia: principi etici e regime di responsabilità, limiti e condizioni per il ricorso all’Intelligenza Artificiale in ambito civile e militare (tema, quest’ultimo, oggetto di risoluzione su Linee guida).

Importante, in particolare, il divieto di “applicazioni altamente invasive di punteggio sociale” sul modello, dunque, del social credit system cinese, nonché la garanzia di sorveglianza umana, con possibilità di immediata disattivazione, sulle applicazioni ad alto rischio, come quelle con capacità di auto-apprendimento, per sottrarre l’uomo all’autoreferenzialità e al cieco determinismo dell’algoritmo.

Una sia pur “leggera” regolazione – fatta più di principles che di rules, dunque duttile quanto necessario per accogliere al suo interno l’evoluzione della tecnica, senza corse impari- è, del resto, quantomai necessaria in quest’ambito, caratterizzato altrimenti da una tendenza anomica, che finisce con il rimettere alla potenza di calcolo il governo della società e dell’uomo. Sinora, infatti, è il Gdpr (e la direttiva 2016/680 per la giustizia penale e la polizia) a fornire il principale presidio regolatorio in materia, con norme certamente non risolutive ma importanti e sulle quali rinvio senz’altro alla bella analisi di Franco Pizzetti nel volume da lui curato “Intelligenza artificiale, protezione dei dati personali e regolazione”.

Il diritto alla spiegazione della logica sottesa alla decisione algoritmica (tanto più se inteso, conformemente al C 71, con riferimento alla comprensione, ex post, dell’esito decisionale e delle sue ragioni e non soltanto come mera spiegazione, ex ante, della logica da utilizzarsi) può, infatti, rappresentare un importante presidio di tutela rispetto al rischio di insindacabilità della decisione algoritmica. A patto, tuttavia, di interpretare restrittivamente (e in connessione sistematica con i Considerando 34 e 35 della Direttiva 2016/943/UE sulla protezione dei segreti commerciali) la clausola di salvaguardia verso i diritti di proprietà intellettuale contenuta al Considerando 63 del Gdpr, così da vincere i limiti di “opacità” dell’algoritmo dovuti ai privilegi dominicali vantati sul software. Quel sindacato pieno sull’algoritmo, sul suo funzionamento in concreto e sulle ragioni dell’esito decisionale, che la giurisprudenza amministrativa ha correttamente preteso rispetto all’ atto amministrativo informatico, deve essere infatti una prerogativa indefettibile di ogni possibile uso che si faccia delle decisioni automatizzate. Anzi, la piena sindacabilità dovrebbe costituire, assieme alla non discriminatorietà, la più importante delle garanzie che il Gdpr impone per legittimare normativamente o contrattualmente processi decisionali automatizzati con impatto significativo sulla persona.

Decisioni automatizzate, l’intervento dell’uomo non basta: servono nuove norme

La trasparenza algoritmica garanzia contro gli abusi

La trasparenza algoritmica (intesa, appunto, anche come sindacabilità) è, infatti, un’importante garanzia rispetto a possibili usi distorsivi della potenza di calcolo in quanto impone, in via preventiva, obblighi informativi sulla logica da applicarsi e, in via successiva, consente di correggere potenziali errori nel processo automatizzato, grazie al dovere di spiegazione della decisione assunta, a tutela dell’interessato e della stessa correttezza della decisione.

Quest’esigenza di trasparenza è, a fortiori, più marcata rispetto agli ambiti della giustizia penale e della polizia, ove infatti sia la direttiva 2016/680, sia il dlgs 51/18 che l’ha trasposta in Italia, hanno introdotto garanzie significative.

Da un lato, infatti, la direttiva ha espressamente vietato le decisioni automatizzate fondate su dati particolari, che inducano discriminazioni, il secondo l’ha rafforzato con la tutela penale, nella consapevolezza del rischio che il potere investigativo, combinato a quello delle tecnologie “della sorveglianza e del sospetto” degeneri in panottismo sociale. Il racial profiling praticato dalla polizia americana all’indomani dell’11 settembre non è, in fondo, un ricordo lontano.

Quando, infatti, le precomprensioni basate sulle caratteristiche soggettive espresse dai dati “sensibili” si sommano alla potenza di calcolo e alla sua capacità performativa e soggettivante, proprio quella tecnica che avrebbe dovuto rendere più “fredda”, esatta e perciò equa la decisione rischia di risultare, invece, più discriminatoria, ideologica e lombrosiana di ogni, fallibilissima, decisione umana.

Ed è proprio questo il punto. Pur nella corretta prospettiva di “godere dei benefici del progresso scientifico e delle sue applicazioni” (art. 15 del Patto internazionale sui diritti economici, sociali e culturali), esiste un ambito in cui più forti devono essere i limiti da frapporre all’ingresso dell’intelligenza artificiale?

Intelligenza artificiale e giustizia: i limiti che servono

Tra i vari che possono indicarsi, credo che la giustizia (soprattutto penale, come si dirà) sia uno di questi, forse persino il più significativo sotto il profilo sociale e istituzionale. Quest’ambito, infatti, è soggetto al fascino illuministico del giudice (ora robot) bouche de la loi, capace di rendere il diritto calcolabile, la giustizia prevedibile, il processo oggettivabile, immunizzando, insomma, il giudizio da ogni residuo margine di libero convincimento (si pensi al prudente apprezzamento di cui all’art. 116 c.p.c. e alla colpevolezza oltre ogni ragionevole dubbio di cui all’art. 533 c.p.p.) in cui però sta, in fondo, l’essenza dello jus dicere.

Come vedremo, proprio il libero convincimento rappresenta, in fondo, l’espressione dell’autentica natura della giustizia che, secondo Carnelutti, non può che essere ‘giustizia del caso singolo’, per l’irriducibile singolarità e non totale oggettivabilità delle vicende umane che – soprattutto il giudizio penale – porta con sé.

Sono sempre più diffusi, in ambito forense, gli algoritmi volti a “calcolare” il più probabile esito giudiziario di una determinata controversia, sulla base degli indirizzi giurisprudenziali consolidati. Naturalmente l’uso di questi algoritmi in termini valutativi non sembra da scoraggiare del tutto, potendo anche costituire un ausilio nella scelta, da parte dei cittadini, se promuovere un giudizio, con effetti persino deflattivi sul contenzioso. Diverso sarebbe, però, integrare tali algoritmi nella decisione giurisdizionale al punto da imporre, ad esempio, una motivazione suppletiva in caso di scostamento, da parte del giudice, della soluzione suggerita dalla macchina. Il rischio sarebbe, infatti, quello del conformismo giudiziale (l’effet moutonnier di cui parla Antoine Garapon), con la tendenziale esclusione di evoluzioni importanti della giurisprudenza, di overruling coraggiosi. Come ricorda Carlo Vittorio Giabardo, Francesco Carnelutti rilevava già, negli anni ‘40, come il ricorso acritico da parte dei magistrati, delle massime giurisprudenziali, li esonerasse dalla “fatica del pensare”.

Ideologie o utopie?

La delega all’Intelligenza Artificiale della “sostanza” della decisione (tale da alleggerire, ad esempio, l’onere motivazionale in caso di conformità alla soluzione robotica e per converso da aggravarlo in caso di dissenso del giudice) determinerebbe con ogni probabilità, come nota Antoine Garapon, la prevalenza di quella che Ricoeur definisce “la culture, l’idéologie dans le sens de Ricoeur” (intesa cioè come struttura simbolica della vita sociale) sull’ “utopie” (intesa come capacità di cambiamento in vista di un fine).

Sarebbe interessante, ad esempio, analizzare gli effetti della delega all’algoritmo della decisione, in Estonia, dei procedimenti civili in materia risarcitoria fino al valore di 7.000 euro.

Spunti interessanti, in questo senso, si rinvengono nella “Carta etica sull’uso dell’intelligenza artificiale nei sistemi giudiziari e nel loro ambiente”, adottata nel 2018 dalla Commissione europea per l’efficienza dei sistemi di giustizia del Consiglio d’Europa, ripresa in molti aspetti dalle Linee guida citate), che insiste sulla necessità di coniugare l’integrazione del processo cognitivo e decisorio giudiziale con modelli statistico-matematici con le garanzie del giusto processo, comunque sotto il controllo umano. Come ben rileva Giovanni Canzio “sembra avere titolo ad accedere al processo penale soltanto lo standard “debole” della intelligenza artificiale, che consenta all’uomo di mantenere comunque il controllo della macchina”.

Se, dunque, non è auspicabile interdire del tutto all’intelligenza artificiale l’ingresso sul terreno della giustizia, ne va tuttavia circoscritto con cautela l’ambito, nella consapevolezza di quella che Paolo Grossi definisce l’irrinunciabile incertezza del diritto.

Il ricorso ai risk assessment tools nel processo penale

Ma il punto da cui si è sviluppato, anche con più forza, il discorso dell’impatto dell’intelligenza artificiale sulla giustizia è quello del ricorso ai risk assessment tools nel processo penale, a partire dalla decisione del 2016 con cui la Corte Suprema del Wisconsin respinse il ricorso di un condannato a sei anni di detenzione per effetto, tra l’altro della prognosi di recidiva stilata dall’algoritmo Compas. Il rigetto si fondava sul carattere non esclusivo della decisione algoritmica ai fini della valutazione giudiziale e sull’inaccessibilità del software in quanto segreto industriale. Alla evidente limitazione dei diritti della difesa e del contraddittorio sulla prova determinata dal ricorso all’algoritmo in fase di sentencing si sommava peraltro, in quel caso, l’attitudine del software ad attribuire agli afroamericani uno score di pericolosità sociale maggiore rispetto ai bianchi.

Viene dunque da interrogarsi sull’eventuale ammissibilità, nel nostro ordinamento, dei risk assessment tools per la valutazione prognostica funzionale alla concessione di misure alternative, per la scelta della misura cautelare, per la commisurazione infraedittale della pena ex art. 133 c.p. o per la valutazione della pericolosità sociale nel procedimento di prevenzione.

Ora, al di là dei limiti (in termini di bias e di sindacabilità della logica algoritmica) emersi nel caso Loomis, credo che da noi il ricorso a tali applicazioni dell’intelligenza artificiale incontrerebbe ulteriori ostacoli.

Sovviene, anzitutto, il divieto di perizia criminologica di cui all’art.220 cpp, teso ad evitare una valutazione della personalità dell’imputato meramente confermativa rispetto all’ipotesi accusatoria e a negare «l’approfondimento di quell’indagine oltre i limiti raggiungibili dalla cultura e dall’esperienza del giudice», come sottolineò la Corte costituzionale rispetto alla corrispondente norma del codice Rocco di rito penale. E se è vero che già allora la Consulta riteneva “discutibile di fronte allo sviluppo degli studi moderni sulla psiche” la “diffidenza verso la perizia psicologica”, la scelta del codice Vassalli di ribadirne il divieto sembra forse, oggi, assai lungimirante, alla luce delle potenzialità incontrollabili di questi nuovi strumenti, che rischiano di indulgere troppo alla colpa d’autore e a un soggettivismo neopositivistico in contrasto con i principi costituzionali.

La tendenza retrospettiva dell’algoritmo predittivo, il suo proiettare nel futuro le serie statistiche di eventi passati assunte a riferimento, sembra dunque renderne l’uso a fini prognostici della personalità e della condotta dell’imputato o del condannato (ad esempio ai fini della concessione delle misure alternative) incompatibile con quella irrinunciabile scommessa sull’uomo sottesa al principio rieducativo della pena.

Per altro verso, come segnalato dal Presidente del Garante per la protezione dei dati personali, professor Stanzione, l’utilizzo, a fini probatori, di altri metodi d’intelligenza artificiale influenti sul processo cognitivo-volitivo potrebbe incidere sul divieto di prove lesive dell’autodeterminazione e della libertà morale (art.188-189 cpp). Ebbene, proprio l’esigenza di salvaguardia della libertà morale rappresenta un filtro all’ingresso di prove atipiche nel processo particolarmente rilevante ed assistito, per l’art. 189 – come sottolinea Giovanni Canzio – “da un significativo rafforzamento del contraddittorio anticipato, “per” la prova, ancor prima che “sulla” prova”.

Che, insomma, il diritto sia materia “ribelle ai numeri” (Carnelutti) non vuol dire che esso precluda strumenti d’ausilio per il giudice, utili ad esempio alla valutazione “intelligente” (e secondo il Daubert test) della prova scientifica addotta dal consulente con riguardo, tra l’altro, al tasso di errore che la caratterizza o anche all’analisi di un’ampia serie di precedenti giurisprudenziali.

L’irriducibilità del diritto a serie numeriche, a statistiche, sembra allora alludere al bisogno, oggi più forte di ieri, di non de-umanizzare un’attività, quale quella giurisdizionale, che dall’uomo e dalla sua valutazione umana, troppo umana, non può prescindere. Ha ragione Hannah Arendt: il processo deve anzitutto promuovere un impegno umano.

_____________________________________________________________________________________

* Le opinioni contenute in questo contributo sono espresse dall’Autrice a titolo meramente personale e non impegnano in alcun modo l’Autorità di appartenenza.

.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati