sistema giudiziario

Giudici “potenziati” dall’IA: le tutele dell’AI Act



Indirizzo copiato

Il regolamento europeo AI Act classifica l’uso dell’IA nel sistema giudiziario come ad alto rischio, ma con eccezioni per compiti limitati o di supporto. L’obiettivo è sostenere, non sostituire, la decisione umana. La decisione finale deve sempre essere guidata dall’essere umano

Pubblicato il 11 feb 2025

Amedeo Santosuosso

Scuola Universitaria Superiore IUSS Pavia



giudici con l'IA responsabilità penale dell'AI AI lavoro avvocati

Su intelligenza artificiale (IA) e decisione giudiziaria è necessario guardare avanti. Il Regolamento europeo (AI Act, 2024) ne dà un’ottima opportunità entrando in dettagli che si avvicinano al cuore del processo decisionale dei giudici, penali o civili, e operando aperture assai significative[1].

AI Act, un percorso normativo accidentato

Bisogna solo avere un po’ pazienza nel seguire un percorso, breve, ma un po’ accidentato.

Com’è noto il Regolamento adotta un approccio basato sul rischio e, coerentemente, dedica l’art. 6, paragrafo 2, alle Regole di classificazione per i sistemi di IA ad alto rischio. In realtà, questo articolo contiene solo il rinvio a un Allegato III, dove si trova l’elencazione di alcuni contesti che rendono rischiosi gli utilizzi di sistemi di IA. Al Comma 8 dell’Allegato si trovano esplicitamente indicati «i sistemi di IA destinati a essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie». Tuttavia, lo stesso articolo 6 prevede (al paragrafo 3) una limitazione all’applicazione dell’Allegato III e, quindi, alla classificazione come uso ad alto rischio: «In deroga al paragrafo 2, un sistema di IA di cui all’allegato III non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale».

Quando l’IA nella giustizia non è ad alto rischio

Si apprende così che, fermo restando che in generale il contesto giudiziario ha la proprietà di far diventare ad alto rischio l’uso di una certa IA (cosa che accade sempre quando è in gioco la profilazione di persone fisiche), questa forza può essere di entità ridotta e, quindi, non tale da determinare il sorgere del rischio alto in alcuni casi. In particolare quando:

a) il sistema di IA è destinato a eseguire un compito procedurale limitato;

b) il sistema di IA è destinato a migliorare il risultato di un’attività umana precedentemente completata;

c) il sistema di IA è destinato a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti e non è finalizzato a sostituire o influenzare la valutazione umana precedentemente completata senza un’adeguata revisione umana; o

d) il sistema di IA è destinato a eseguire un compito preparatorio per una valutazione pertinente ai fini dei casi d’uso elencati nell’allegato III.

Il Considerando n. 61 dell’AI Act

Queste previsioni sono in linea con il Considerando n. 61, che così recita:

È in particolare opportuno, […] classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un’autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti [enfasi aggiunta]. Anche i sistemi di IA destinati a essere utilizzati dagli organismi di risoluzione alternativa delle controversie a tali fini dovrebbero essere considerati ad alto rischio quando gli esiti dei procedimenti di risoluzione alternativa delle controversie producono effetti giuridici per le parti. L’utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo [enfasi aggiunta]: il processo decisionale finale deve rimanere un’attività a guida umana. Non è tuttavia opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi.

Un giudice secondo l’AI Act

Al netto di una certa farraginosità, il quadro che emerge è chiaro. Il legislatore europeo è preoccupato particolarmente per l’attività giudicante e vuole che essa rimanga prerogativa degli umani, mentre per gli usi di sistemi di IA per attività amministrative accessorie vi sono problemi meno delicati. In più, un sistema di IA, pur usato a sostegno dell’attività giudicante, sfugge alla bolla di sistema ad «alto rischio» (secondo l’Allegato III) se esegue un compito procedurale limitato, oppure svolge un compito preparatorio, o migliora soltanto il risultato di un’attività umana precedentemente completata, oppure è destinato a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti e non è finalizzato a sostituire o influenzare la valutazione umana precedentemente completata[2].

In conclusione, pur con tutte le cautele del caso, si delinea una figura di giudice secondo il Regolamento (AI Act),che possiamo immaginare contornato di tecnologie avanzate.

Queste possono svolgere compiti preparatori (per esempio, la rilevazione di fatti e circostanze ricorrenti in un caso quantitativamente importante, oppure anche compiti di raccolta organizzata della casistica sulle varie questioni in decisione e proposta al giudicante di una sequenza logico-giuridica sottoposta al suo vaglio: come nel caso di utilizzo di sistemi capaci di generare una prima bozza, c.d. document builder), oppure che migliorino il risultato di un’attività già svolta (per esempio, il giudice che affida a un sistema di IA generativa – tipo LLM– la rilettura discorsiva di un testo la cui scrittura è risultata farraginosa, perché magari redatto in modo frammentario sotto la pressione di verificare a più riprese singoli documenti e verbali, ferma restando la rilettura finale da parte dell’umano; oppure chiede allo stesso sistema di fare una sintesi – sempre poi da verificare– delle posizioni espresse dai difensori in lunghi scritti). Appare un po’ sibillino solo il discorso delle deviazioni dagli schemi decisionali, a meno che non si intenda una sorta di rilevatore automatico del fatto che il giudicante si stia discostando dalla giurisprudenza dominante. Ma si può immaginare solo una sorta di alert e niente di più, perché il giudice deve, sempre, potersi discostare, a patto che lo faccia consapevolmente e per buoni motivi espressi in motivazione.

Se a tutto questo si aggiunge che, anche un sistema che dovesse rimanere etichettato ad alto rischio, non sarebbe perciò solo vietato (ma dovrebbe piuttosto essere sottoposto ai controlli preventivi e successivi previsti dagli artt. 8 e seguenti) mi pare che si possa alla fine dire che queste regole europee non sono tecnofobiche e che, anzi, possano essere di rassicurazione per chi ha timori di disumanizzazione delle decisioni e di stimolo per l’introduzione di maggiori apporti tecnologici previsti per la fase giudicante (mentre parzialmente diverso è il discorso per la fase di indagine o predibattimentale nel processo penale). Stupisce, al confronto, il Disegno di legge del Governo italiano, che (almeno nella versione iniziale) all’art.14 limitava gli utilizzi possibili di sistemi di IA solo alle ricerche giurisprudenziali. Ma l’esame delle camere sta portando a un testo che potrebbe essere in linea con il Regolamento UE.

Le obiezioni di chi vede solo pericoli nell’IA

La prospettiva del regolamento europeo, insieme ad alcune caratteristiche dei nuovi sistemi di IA generativa, fuga alcune delle obiezioni più comuni, tutte centrate, direttamente o indirettamente, sull’idea che le macchine puramente e semplicemente soppiantino gli umani.

Ma queste obiezioni devono oggi fare i conti con il fatto che nelle norme dell’AI Act non vi è nessuna concessione a ipotesi di sostituzione di umani con macchine, perché il Regolamento stabilisce esplicitamente che “il processo decisionale finale deve rimanere un’attività a guida umana” e perché comunque, un sistema che andasse oltre i limiti su riportati, rientrerebbe nel divieto per l’uso di IA in ambito giudiziale come attività ad alto rischio.

A fronte di questo quadro normativo, o si dice che non si condivide il Regolamento AI Act (cosa sempre possibile e garantita costituzionalmente come libertà di opinione!) oppure bisogna giuridicamente riconoscere che la prospettiva europea è solida e rassicurante, del tutto estranea a qualsiasi ipotesi di automazione della decisione giudiziale e delle valutazioni interpretative che ad essa possono portare.

Così come bisogna riconoscere che nessuno spazio vi è per possibili accertamenti automatici della responsabilità penale (cosa che non risulta accaduta in nessun paese occidentale!) o per quantificazioni automatiche dell’entità della pena o per la maggiorazione di pena per il rischio di recidiva (cosa accaduta nel caso Loomis negli USA, che viene sempre citato senza però ricordare che il sistema privato Compas, all’origine dello scandalo, non è più in uso da anni ed è stato sostituito da un sistema pubblico, che avrà altri problemi ma non quello dell’opacità dei criteri).

I limiti dei LLM sono garanzia di decisioni umane

Inoltre, lo scenario tecnico attuale è sensibilmente diverso da quello nel quale sono maturate la maggior parte delle critiche all’uso di tecniche di IA nel processo decisionale del giudice, perché i sistemi di IA generativa implicano un rapporto diverso tra utente e sistema.

In poche parole, l’utente può interrogare un sistema in diversi modi, con diversi approcci e con diversa precisione e profondità (è la tecnologia del prompting), ricevendo risposte diverse e che possono essere diverse nel tempo. In pratica, le risposte non sono classificabili come giuste o sbagliate, ma sono modulate dal modo di interrogare il sistema.

Questa variabilità delle risposte è un limite di questi sistemi e, al tempo stesso e un po’ paradossalmente, un punto di forza. Se le risposte di un IA generativa si presentano oggi come elaborazioni linguistiche simil-umane, senza alcuna garanzia che i riferimenti testuali (per es. precedenti) siano corretti, allora sarà impossibile affidarsi passivamente a questi sistemi, i cui “enunciati” saranno pure simil-umani, ma non saranno immediatamente trasponibili in una decisione. Il che è vero anche per il difensore che predispone un atto, come dimostrano i processi, per ora non in Italia, a carico di difensori malaccorti che si erano affidati a testi e citazioni non verificate!

Questo significa che nessuno può essere sicuro di fare copia-incolla. Non può farlo il difensore che promuove una causa, non può farlo il difensore che risponde a un atto dell’avversario e, men che mai, può farlo il giudice. Ognuno dovrà essere vigile e capace di valutare sulla base della sua professionalità le proposte dei sistemi di IA, che è come dire che non esistono sistemi che producono sentenze o atti e che i contributi di questi sistemi devono essere vagliati seguendo le regole del contraddittorio. In pratica, l’ausilio di sistemi di IA generativa esclude, per definizione direi, una uniformazione standardizzata della giurisprudenza.

Decidere con la macchina

La decisione di quello che ho chiamato giudice secondo il Regolamento (AI Act) non è decisione della macchina, ma semmai una decisione con la macchina e non è, inoltre, una decisione semplificata, ma una decisione complessa, frutto di una interazione dell’umano con sistemi di IA.

L’IA è un’occasione straordinaria di ripensamento dell’agire giuridico e del giudicare, per la quale la formazione è il punto chiave sul quale investire, piuttosto che puntare su paure paralizzanti. Mentre sono problemi seri quelli su a) le scelte su a chi affidare la costruzione dei sistemi di IA, b) con quale capacità di controllo pubblico sulle opzioni tecniche e c) la necessità di superare il monopolio del Ministero della giustizia su queste scelte, che vengono fatte senza adeguato coinvolgimento istituzionale né dei giudici né degli avvocati.

Per il resto il giudice secondo il Regolamento (AI Act) è, e sarà, soggetto alle norme sull’ordinamento giudiziario (art. 102 Cost.) ed è, e sarà, giudice terzo e imparziale (art. 111 Cost.) e soggetto soltanto alla legge (art. 101, comma 1 Cost.).

L’illusione proibizionista e l’insostituibile qualità umana

Segnalo, infine, un altro aspetto collegato alle caratteristiche tecniche dell’IA generativa: l’inutilità e l’inefficienza delle proibizioni.

Mentre si può pensare di proibire o vietare per legge l’utilizzo di sistemi centralizzati (per esempio il processo penale o civile telematico), che hanno bisogno di strutture fisse, di collegamenti e quanto altro necessario per il loro funzionamento, sarebbe del tutto inefficiente una proibizione per giudici o avvocati di usare sistemi di IA generativa. Questi sistemi, infatti, per quanto siano frutto di complessi e assai dispendiose strutture proprietarie, sono liberamente accessibili sul web e utilizzabili per varie attività strumentali, come per esempio quella di riassumere (“sommarizzare”, come si usa ora dire traducendo dall’inglese) atti di parte o altri lunghi testi di cui dar conto in una motivazione o altro documento.

Non stupisce allora che un numero crescente di giudici dichiari, privatamente, di far uso di quei sistemi non per farsi sostituire dalle “macchine”, ma semplicemente per fare meglio e più velocemente il proprio lavoro. La verifica finale dell’elaborato del sistema è, come ho detto sopra, comunque dell’umano, che farà la doppia verifica su quello che il prodotto dell’IA dice e, soprattutto, su quello che non dice,e che solo un umano esperto nella sua insostituibile attività di supervisione può rilevare.


[1] Questo testo è tratto, con alcune modifiche e aggiunte, dal volume A. Santosuosso – G. Sartor, Decidere con l’IA. Intelligenze artificiali e naturali nel diritto, Il Mulino, Bologna, 2024, al quale rinvio per ulteriori dettagli e bibliografia.

[2] In ogni caso il Comma 4 dell’art. 6 prevede un, condivisibile, obbligo di registrazione per il fornitore: «4. Un fornitore che ritiene che un sistema di IA di cui all’allegato III non sia ad alto rischio ne documenta la valutazione prima che tale sistema sia immesso sul mercato oppure messo in servizio. Tale fornitore è soggetto all’obbligo di registrazione di cui all’articolo 49, paragrafo 2. Su richiesta delle autorità nazionali competenti, il fornitore mette a disposizione la documentazione relativa alla valutazione».

EU Stories - La coesione innova l'Italia

Tutti
L'ANALISI
INIZIATIVE
PODCAST
Video&podcast
Analisi
VIDEO&PODCAST
Video & Podcast
Social
Iniziative
INNOVAZIONE
EU Stories | Dalla produzione industriale a fucina di innovazione: come il Polo universitario della Federico II a San Giovanni a Teduccio ha acceso il futuro
L'INIZIATIVA
DNSH e Climate proofing: da adempimento ad opportunità. Spunti e proposte dal FORUM PA CAMP Campania
INNOVAZIONE
EU Stories, il podcast | Laboratori Aperti: riqualificazione e innovazione in 10 città dell’Emilia-Romagna
Da OpenCoesione 3.0 a Cap4City: ecco i progetti finanziati dal CapCoe.  Il podcast “CapCoe. La coesione riparte dalle persone”
Capacità amministrativa e coesione: il binomio vincente per lo sviluppo dei territori
FORUM PA PLAY: come unire sostenibilità e investimenti pubblici. Speciale FORUM PA CAMP Campania
Scenari
Il quadro economico del Sud: tra segnali di crescita e nuove sfide
Sostenibilità
Lioni Borgo 4.0: un passo verso la città del futuro tra innovazione e sostenibilità
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
INNOVAZIONE
EU Stories | Dalla produzione industriale a fucina di innovazione: come il Polo universitario della Federico II a San Giovanni a Teduccio ha acceso il futuro
L'INIZIATIVA
DNSH e Climate proofing: da adempimento ad opportunità. Spunti e proposte dal FORUM PA CAMP Campania
INNOVAZIONE
EU Stories, il podcast | Laboratori Aperti: riqualificazione e innovazione in 10 città dell’Emilia-Romagna
Da OpenCoesione 3.0 a Cap4City: ecco i progetti finanziati dal CapCoe.  Il podcast “CapCoe. La coesione riparte dalle persone”
Capacità amministrativa e coesione: il binomio vincente per lo sviluppo dei territori
FORUM PA PLAY: come unire sostenibilità e investimenti pubblici. Speciale FORUM PA CAMP Campania
Scenari
Il quadro economico del Sud: tra segnali di crescita e nuove sfide
Sostenibilità
Lioni Borgo 4.0: un passo verso la città del futuro tra innovazione e sostenibilità
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4