Nel campo dei procedimenti penali, dall’inizio delle indagini preliminari fino al dibattimento, nel corso del quale si formano le prove che il giudice utilizzerà per la sua decisione, l’Intelligenza Artificiale (IA) sta già avendo un impatto ben più significativo di quanto si possa immaginare.
Pensiamo soltanto a tutte le banche dati e agli strumenti utilizzati dalle forze di Polizia per incrociare dati grezzi, o, ad esempio, a tutti i riconoscimenti effettuati grazie a SARI[1], un software che, attraverso l’utilizzo di dati biometrici, consente di identificare i volti delle persone.
Recentemente, è stata diffusa la notizia che, entro un anno (e solo dopo il via libera del Garante per la privacy), le forze di polizia italiane potrebbero avvalersi dell’ausilio del software Giove[2]. Questo software non solo è capace di incrociare banche dati e accelerare le attività di indagine, ma anche di “prevedere” modalità e luoghi di commissione di reati di particolare allarme sociale mediante l’analisi e lo studio dei comportamenti di coloro che sono noti alle forze dell’ordine per i loro precedenti penali.
Ebbene, come ogni fenomeno legato all’innovazione tecnologica, l’utilizzo dell’IA nel settore penale comporta la necessità di approcciarsi a tutta una serie di criticità e opportunità innanzi alle quali, probabilmente, sarà necessario individuare nuove categorie logico – giuridiche per fornire delle risposte esaustive a tutti gli interrogativi che si pongono e che si porranno.
Prevenzione, repressione e diritti di difesa
Innanzitutto, allo stato attuale, ogni qualvolta ci si approccia al tema dell’utilizzo dell’IA nell’ambito dei procedimenti penali immediatamente vengono in mente due concetti: prevenzione e repressione. Questo perché, fino ad ora, il campo di applicazione dei software di intelligenza artificiale è sempre stato quello delle indagini condotte dalla polizia giudiziaria.
A tal proposito, certamente non aiuta la giurisprudenza della Corte di Cassazione che, in un caso nel quale la difesa dell’imputato ha richiesto l’utilizzo del software SARI, ha rigettato le argomentazioni del ricorso avverso la sentenza di merito sostenendo (come già sostenuto dai giudici gravati) che la difesa non aveva documentato la valenza scientifica della prova richiesta ( Cass. Sez. IV, sent. 39731 del 2019). Curioso se pensiamo che si tratta di un software in uso alle forze di polizia e sviluppato a livello ministeriale.
Invece, in un’ottica nella quale il governo del fenomeno IA dovrebbe rappresentare una priorità per evitare il rischio di “subire” il governo dell’intelligenza artificiale, l’utilizzo di software potrebbe (e dovrebbe) coadiuvare il difensore non solo nella preparazione e nella prospettazione al proprio assistito del più probabile esito della causa, bensì anche nella conduzione di indagini difensive.
Il rovescio della medaglia, qualora non si preveda la possibilità di sviluppare e utilizzare software pubblici e aperti a tutti gli utenti del comparto giustizia (avvocati compresi), è che la possibilità di accesso a tale tecnologia risulti appannaggio esclusivo di coloro i quali potranno sostenerne i costi.
Intelligenza Artificiale e giustizia predittiva: il caso COMPAS
Nonostante possibili ostacoli o contestazioni, è innegabile che l’intelligenza artificiale si stia rapidamente consolidando come uno strumento cruciale nel processo penale. Nell’ambito giudiziario degli Stati Uniti, è già operativo un sistema noto come COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), sviluppato dalla società privata Northpoint, ora conosciuta come Equivant.
Questo strumento, impiegato dai tribunali, è destinato alla gestione dei casi e al supporto decisionale. Funziona attraverso una metodologia di valutazione del rischio, o “Risk assessment“, basata su un algoritmo proprietario che prende in considerazione le risposte a un questionario di 137 punti.
Ciò permette di calcolare punteggi che stimano la probabilità di recidiva in individui la cui storia criminale rispecchia quella dell’interessato.
Tra gli indicatori più significativi rientrano le imputazioni correnti, le cause in sospeso, l’elenco storico degli arresti pregressi, la solidità del domicilio, la condizione lavorativa, i rapporti con la comunità locale e l’abuso di sostanze stupefacenti.
Elementi che non sempre dipendono da scelte soggettive, pur potendosi riverberare nella limitazione della libertà altrui.
Il caso Loomis v. Wisconsin
Caso emblematico in tal senso è stato il Loomis v. Wisconsin[3], arrivato sino in Corte Suprema per definire le questioni di diritto costituzionale e di procedura legale connesse all’uso dei software di valutazione come COMPAS.
Loomis contestava che l’indisponibilità a conoscere l’algoritmo COMPAS in quanto software proprietario protetto da segreto industriale, impediva una disamina sulla correttezza della valutazione del rischio.
Il ricorrente, il cui grado di recidiva veniva considerato da COMPAS “estremamente alto”, è stato condannato a 6 anni di reclusione ed ha presentato ricorso in Corte Suprema, perdendo nel merito in quanto la valutazione di COMPAS non è (e non sarà, a quanto pare) l’unico fattore dirimente nella decisione del giudice.
Le controversie relative ai pregiudizi (bias) insiti in COMPAS, e in qualsiasi altra intelligenza artificiale che si basa esclusivamente su dati raccolti e un algoritmo di gestione, hanno sollevato interrogativi cruciali sulle modalità decisionali all’interno del processo legale, venendo etichettate, in maniera che può suonare cinematografica[4] decisamente veritiera, come “giustizia predittiva”.
Tuttavia, si è prestata scarsa attenzione agli altri aspetti, altrettanto rilevanti, che rendono l’introduzione dell’utilizzo delle intelligenze artificiali nel procedimento penale degna di un approfondimento.
Possibilità e interazioni dell’IA nel processo penale
Posti alcuni limiti, ivi incluso quelli relativi ad un’adeguata gestione della privacy e dei documenti processuali, è indubbio che l’utilizzo dell’intelligenza artificiale nel contesto del processo penale possa offrire una serie di vantaggi significativi.
Uno dei vantaggi primari è dato dalla possibilità di analizzare rapidamente grandi quantità di informazioni, consentendo agli avvocati -soprattutto ai “solo practitioner” e ai piccoli studi legali- di offrire approfondimenti difensivi difficilmente attuabili in assenza di risorse.
Da un punto di vista statistico, l’IA potrebbe inoltre essere impiegata per identificare schemi e tendenze decisionali, fornendo un contributo utile alla pianificazione strategica dei casi.
Un altro aspetto positivo dell’IA è la sua capacità di prevedere l’esito dei casi legali. Questa funzionalità offre agli avvocati e ai loro clienti una migliore comprensione delle possibili conseguenze di una controversia, consentendo loro di prendere decisioni più informate e ponderate.
Tuttavia, è importante sottolineare che l’IA non può mai sostituire l’esperienza e l’intuizione umana. Gli avvocati dovranno continuare a fare affidamento sul loro giudizio professionale e sulla loro esperienza per interpretare e applicare correttamente le informazioni fornite dall’IA e questo renderà la loro attività funzionalmente necessaria.
Appare per questo ad oggi solo parzialmente corretta l’analisi di una grande compagnia come Goldman Sachs, che prevede una contrazione del 44% delle attività legali ed uno sviluppo inevitabile dell’automazione dei compiti paralegali[5].
Lo sviluppo dell’intelligenza artificiale nel settore legale porterà sicuramente a un’evoluzione professionale del ruolo dell’avvocato, spingendo alla necessità di migliorare le cosiddette “soft skills“. Attualmente, queste abilità consentono ancora una distinzione discreta tra l’intelligenza umana e quella artificiale, consentendo un’importante integrazione che rimane e rimarrà essenziale per garantire una rappresentanza legale completa e di alta qualità.
Automazione e analisi dei dati
Nel settore legale, gran parte del lavoro comporta compiti ripetitivi e procedurali che possono essere automatizzati con l’IA. Ad esempio, la revisione di documenti legali, la ricerca di precedenti giuridici, la redazione di atti processuali e altri compiti amministrativi possono essere gestiti da algoritmi di apprendimento automatico. Questo non solo permette di risparmiare tempo, ma può anche ridurre la possibilità di errori umani in questi processi. Questo tempo risparmiato può essere utilizzato dagli avvocati per concentrarsi su aspetti più importanti e complessi dei loro casi, come l’elaborazione di strategie legali, la negoziazione e l’interazione con i clienti. In questo modo, l’IA può potenzialmente liberare gli operatori legali da un carico di lavoro altrimenti soffocante, permettendo loro di fornire un servizio migliore e più efficiente.
Intelligenza Artificiale e procedimenti penali: quali rischi?
Nonostante i numerosi vantaggi offerti dall’IA, abbiamo anticipato quindi anche l’esistenza di alcuni rischi significativi.
L’addestramento della macchina e l’inserimento di dati “spazzatura”
Uno di questi è il rischio, come dicevamo, di bias nei sistemi di IA e della riformulazione dei sistemi di addestramento non sempre “intelligente”.
Se i dati utilizzati per il machine learning dell’IA sono distorti o imprecisi, l’intelligenza artificiale può generare risultati inaffidabili laddove non completamente inventati.
Recente è il caso dell’ avvocato Steven Schwartz dello studio legale Levidow, Levidow & Oberman, che, in una recente causa contro Avianca Airlines, ha lasciato impostare una tesi difensiva interamente a ChatGPT. con tanto di ricerche giuridiche rivelatesi inesistenti che gli costeranno, oltre al rigetto dell’istanza, anche il malcontento del cliente e il ludibrio della corte, oltre ad un probabile provvedimento disciplinare.
Quindi l’utilizzo improprio di uno strumento che altrimenti è utilissimo, può portare a risultati che spesso possono risultare sia professionalmente che deontologicamente disastrosi.
Rischi per la privacy e la sicurezza dei dati
In un settore giudiziario particolarmente in affanno come quello italiano, l’IA si presenta come una risorsa straordinaria per l’analisi dei dati provenienti da strumenti quali le intercettazioni, consentendo, ad esempio, una trascrizione e un’analisi incredibilmente più rapida ed efficace dei contenuti.
Tuttavia, è fondamentale riconoscere che le intercettazioni rappresentano ad oggi una delle forme più invasive di indagine, il cui impatto in tema di privacy degli individui coinvolti è stato già ampiamente dibattuto.
Possiamo solo immaginare in che modo potrebbe svilupparsi un’intelligenza artificiale mal gestita in grado di riconoscere e profilare gli interlocutori sulla base delle loro abitudini vocali, del loro linguaggio o delle espressioni utilizzate, creando rischi per la privacy e per i bias analitici davvero pericolosi.
Questa profilazione potrebbe dare luogo ad interpretazioni erronee o ingiustificate che potrebbero avere gravi ripercussioni sulle libertà individuali e sulla reputazione degli individui.
Inoltre, considerando la capacità dell’IA di elaborare e conservare enormi quantità di dati, la possibilità che queste informazioni possano essere conservate per un periodo di tempo indeterminato, o addirittura utilizzate per scopi diversi da quelli per i quali sono state raccolte, rappresenta una preoccupazione significativa che richiederebbe un approccio legislativo particolarmente capace di tutela.
Emblematico lo scandalo scoppiato nel 2021 con riferimento alla startup Clearview che aveva sviluppato un software di riconoscimento facciale che pescava immagini a strascico dal web senza alcun tipo di autorizzazione. Tale software, si è poi scoperto, veniva utilizzato da forze di polizia di mezza Europa (Italia compresa) come rivelato da una ricerca effettuata dal gruppo dei Verdi al Parlamento Europeo[6].
Manipolazione probatoria
Sebbene il reato di frode processuale sia già previsto dall’art. 374 c.p., l’avanzamento straordinario di software di grafica generativa può ripercuotersi in maniera notevole nel contesto del processo penale italiano.
Un pericolo di particolare rilevanza risiede nell’uso di tecnologie avanzate, come i software DragGan, Adobe e FireFly in grado di produrre immagini realistiche con modifiche a volte impercettibili, ma che possono risultare decisive ai fini probatori.
Pensiamo ad esempio alla ricostruzione fotografa di una scena del delitto oppure ai deepfake capaci di sostituire, con precisione millimetrica ed incredibile veridicità, volti di individui con quelli di terze persone.
Questi prodotti, se impiegati illecitamente, anche nell’incoscienza e ingenuità di un difensore che li riceve da un assistito sulla cui provenienza non può dubitare, potrebbero influenzare il corso di un processo penale, inducendo in errore sia la difesa che il giudice.
Si tratta, pertanto, di un fenomeno che richiede attenzione e azioni di contrasto sia dal punto di vista giuridico che tecnologico.
Dal punto di vista giuridico, è necessario prevedere un adeguato quadro normativo che punisca severamente l’uso di IA per la frode processuale e strumenti tecnici, eventualmente anche con watermark invisibili forniti dalle software house, che permettano di discerne un’immagine reale da una generata artificialmente.
Nel frattempo, anche nel solco dell’AI Act approvato il 24 Giugno dal Parlamento Europeo, diventa plausibile un’ipotesi di intervento legislativo che miri ad adottare nuovi protocolli per l’ammissibilità delle prove digitali nei procedimenti penali, che includano la verifica dell’autenticità dei dati attraverso tecniche di rilevamento delle manipolazioni IA.
Tale impostazione è stata condivisa di recente dalla vicepresidente della Commissione europea Vera Jourova, responsabile per i valori e per la trasparenza, che ha chiesto alle compagnie di sviluppo software l’inserimento di ‘etichette’ per riconoscere i contenuti creati dalle IA[7], oltre che da Thierry Breton, Commissario Europeo per il Mercato Interno, che ha dichiarato in seduta a Strasburgo che “Dobbiamo etichettare tutto ciò che è generato dall’intelligenza artificiale contrassegnandolo con watermark (filigrana)”.
IA e processo penale: è fondamentale governare il fenomeno
In conclusione, una volta analizzati rischi e potenzialità connessi all’utilizzo dell’Intelligenza Artificiale in ambito penale, occorre augurarsi che il Legislatore, tenendo in conto le linee guida ed i principi sanciti dall’Artificial Intelligence Act, avvii una seria riflessione sul tema per arrivare ad una regolamentazione efficace del fenomeno, come del resto auspicato da alcuni degli stessi creatori di software di IA.
Perché il tema, quasi come sempre avviene quando si tratta di innovazione tecnologica, non è mai lo strumento in sé (potenzialmente foriero di grandi benefici) bensì l’utilizzo che se ne fa, unitamente alle regole che dovrebbero servire per azzerare (o quantomeno limitare) i rischi connessi all’utilizzo dell’Intelligenza Artificiale, soprattutto in un settore fondamentale come quello penale che interseca diritti fondamentali quali quello alla libertà personale e al diritto al giusto processo.
Note
[1]https://www.agendadigitale.eu/sicurezza/privacy/sari-vantaggi-e-rischi-del-riconoscimento-facciale-nella-pubblica-sicurezza/
[2]https://www.ilsole24ore.com/art/nome-codice-giove-ecco-l-algoritmo-polizia-prevenire-reati-AEAoJIZD
[3] https://www.scotusblog.com/wp-content/uploads/2017/05/16-6387-CVSG-Loomis-AC-Pet.pdf
[4] Il riferimento è al film “Minority Report” di Steven Spielberg, tratto dal racconto “Rapporti di Minoranza” di Philip J.Dick, ambientato in una società dove gli atti criminali vengono “anticipati” e fermati da previsioni cognitive avanzate.
[5] https://www.economist.com/business/2023/06/06/generative-ai-could-radically-alter-the-practice-of-law
[6]https://www.cybersecurity360.it/legal/privacy-dati-personali/clearview-ai-testato-in-italia-le-implicazioni-tra-tutela-della-privacy-e-sicurezza-dei-cittadini/
[7] https://www.ilsole24ore.com/art/commissione-ue-contro-fake-news-servono-etichette-contenuti-ai-AEMoBwaD