In aumento, non solo negli Stati Uniti, ma anche in Europa, l’uso di sistemi di investigazione predittiva della commissione di reati, utilizzati dai corpi di polizia a fini preventivi.
Tali sistemi portano notevoli benefici nella prevenzione di alcune tipologie di crimini, ma il loro utilizzo presenta anche un certo numero di inconvenienti tali da richiedere ancora una serie di chiarimenti dal punto di vista normativo.
Una panoramica su cosa sono, come funzionano e sugli impatti dei sistemi di investigazione predittiva sulla privacy.
I sistemi di investigazione predittiva
I sistemi di investigazione predittiva basano le proprie elaborazioni su dati investigativi afferenti a reati commessi in precedenza; dati che possono indubbiamente riguardare persone fisiche identificate o identificabili. Questo apre il dibattito a una serie di considerazioni riguardanti la legittimità e le modalità dell’utilizzo dei dati raccolti.
Questi sistemi di investigazione si dividono in due categorie:
- Sistemi volti a evidenziare aree particolarmente a rischio, sia da un punto di vista geografico che da un punto di vista contestuale (criminal mapping)
- Sistemi volti ad evidenziare le eventuali serie criminose (crime linking)
Criminal mapping
Gran parte di questi sistemi individua il tempo ed il luogo ove saranno commessi alcuni tipi di crimine, evidenziando le zone calde in una mappa geografica, ciclicamente aggiornata e controllata dai funzionari di polizia. Questo procedimento è chiamato di “predictive criminal mapping”. La maggior parte dei software in uso si basa su dati storici relativi alla localizzazione del crimine, come i rapporti di polizia, ma sono state testate anche nuove tecnologie più potenti che combinano vari dati e da diverse fonti. “Questi strumenti, che hanno tassi di efficacia molto persuasivi, si afferma anche che abbiano effetti deterrenti sulla commissione dei reati nelle aree circostanti i punti caldi, portando ad un’opinione positiva delle politiche pubbliche”, evidenzia la Commissione per l’efficienza della giustizia del Consiglio d’Europa (Cepej) che, nel 2018 ha adottato la prima“Carta etica europea sull’uso dell’intelligenza artificiale (IA) nei sistemi giudiziari e in ambiti connessi” fissando i principi sostanziali e metodologici applicabili al trattamento automatizzato delle decisioni e dei dati giudiziari, sulla base di tecniche di Intelligenza Artificiale.
Alcuni di questi sistemi si avvalgono di un sistema di calcolo euristico in grado di valutare il livello di rischio di un luogo anche in base alle operazioni regolari che in tale luogo si compiono, come l’entrata e l’uscita da scuole, uffici, mercati, esercizi commerciali, mezzi pubblici ecc. Il sistema analizza i luoghi combinandoli con queste dinamiche socio economiche, estraendo sequenze e avvenimenti in concomitanza di questi accadimenti regolari.
Crime linking
Questo sistema si concentra maggiormente sulle caratteristiche e le abitudini comportamentali del reo; per fare questo coniuga l’approccio analitico investigativo, che di ogni rapina registra tutti gli elementi utili, compreso il profilo comportamentale dell’autore del crimine alla matematica e statistica per analizzare quegli stessi dati. Questo sistema si basa esclusivamente ed unicamente sui dati investigativi, raccolti sul luogo dell’accadimento del fatto criminoso, dai testimoni, siano essi vittime o spettatori dell’evento e dalle registrazioni delle telecamere di videosorveglianza. Sono gli stessi dati che ogni investigatore raccoglie per identificare nel suo insieme le caratteristiche dell’azione criminosa, compreso il profilo comportamentale del reo. La macchina propone come output il crime linking (richiama una serie criminosa già esistente) o individua una nuova serie criminosa.
Impatti sulla privacy e pregiudizi dei sistemi di investigazione predittiva
Prima di tutto è importante sottolineare che, quando il trattamento dei dati personali è effettuato “da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia e la prevenzione di minacce alla sicurezza pubblica”, la norma applicabile è la Direttiva (UE) 2016/680.
Anche se le tecniche di polizia predittiva sono in costante e progressivo perfezionamento, non può negarsi che l’algoritmo poliziotto sia stato uno strumento particolarmente utile alla repressione di talune fattispecie di reato.
I dati forniti dalla questura di Milano, città in cui è operativo già da tempo un sistema predittivo avanzato, evidenziano come negli ultimi dieci anni siano diminuite del 58% le rapine nelle aree commerciali e di ben l’88% le rapine in banca. Napoli, città in cui è operativo un sistema dotato di algoritmo euristico, segnala come, da quando tale sistema è operativo, i reati siano diminuiti del 22% e gli arresti aumentati del 24%.
Nonostante questi buoni risultati, l’utilizzo di detti strumenti non è privo di inconvenienti.
Il primo da sottolineare è la loro scarna regolamentazione normativa, correlata col necessario bilanciamento tra esigenza di prevenzione e tutela della privacy: il recepimento della Direttiva (UE) 2016/680 ha portato alla abrogazione del Titolo II – Trattamenti da parte di forze di polizia del Decreto Legislativo 196/2003 (cd. Codice Privacy), ma rimangono ancora importanti zone d’ombra in cui l’intervento del legislatore statale è più che auspicabile.
Tutelare i diritti di ogni soggetto coinvolto nei processi di raccolta dati è imprescindibile (si pensi alla mole di dati immagazzinati nei sistemi di videosorveglianza), inoltre è necessario prestare molta attenzione ala possibilità che i fattori di pericolosità siano identificati in caratteristiche etniche o sociali con conseguente violazione del basilare principio di non discriminazione. Un sistema predittivo riceve come input i dati storici su denunce e arresti, quindi dati che riguardano il comportamento non solo dei criminali, ma anche (se non soprattutto) delle vittime, dei testimoni e delle forze dell’ordine.
Un recente studio statunitense ha sottolineato come siano elevate le possibilità che un sistema predittivo apprenda e costruisca le proprie previsioni sulla base dei pregiudizi radicati nella società.
Un’altra ricerca portata avanti all’interno di alcuni dipartimenti di polizia americani ha evidenziato come, a parità di situazione e contesto, sia molto più probabile che sia fermato per un controllo un “giovane maschio adulto di colore” piuttosto che un “giovane maschio adulto bianco”.
I ricercatori del Royal United Services Institute for Defence and Security Studies – RUSI (think tank britannico di difesa e sicurezza), in un approfondito studio commissionato dal Center for Data Ethics and Innovation, si sono concentrati sulla mappatura predittiva del crimine e sulla valutazione del rischio individuale e hanno scoperto che gli algoritmi addestrati sui dati di polizia possono replicare – e in alcuni casi amplificare – i pregiudizi esistenti insiti nel set di dati, dando origine, ad esempio, ad un controllo eccessivo o insufficiente di determinate aree o comunità.
L’intervento umano
Alla luce di queste considerazioni, in una società ancora ben lontana dall’essere scevra da pregiudizi più o meno consapevoli, si pone grandemente il problema dell’intervento umano nelle azioni profilative e predittive automatizzate: a livello di input di dati sarebbe auspicabile la maggiore neutralità possibile (ed il fatto che l’articolo 10 della Direttiva (UE) 2016/680 vieti, se non strettamente necessario e in ricorrenza di particolare condizioni “Il trattamento di dati personali che rivelino l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche o l’appartenenza sindacale, e il trattamento di dati genetici, di dati biometrici […]”, si muove in tale direzione), mentre in fase di output l’intervento umano “ragionato” è imprescindibile non solo per rispettare la legge, ma soprattutto perché una valutazione ragionata può dare la giusta considerazione ad aspetti che un algoritmo non può analizzare sufficientemente.
Altro aspetto fondamentale è la necessità di una attenta valutazione dei soggetti che entrano in contatto con i dati raccolti per finalità di polizia: è possibile, se non probabile, che le aziende realizzatrici dei sistemi in oggetto trattino i dati raccolti. Per questo è necessaria una formalizzazione specifica dei ruoli (potrà, ad esempio, verificarsi un rapporto Titolare – Responsabile del trattamento) con istruzioni precise da valutare caso per caso, specialmente se, per un qualunque motivo, alcuni dei dati raccolti fossero utilizzati con finalità diverse da quelle previste dall’articolo 2 della Direttiva (UE) 2016/680 e, quindi, rientranti sotto la previsione normativa del Regolamento (UE) 2016/679 – GDPR e il considerando 34 alla Direttiva (UE) 2016/680 aiuta a fugare ogni dubito in merito.
Le reazioni delle comunità
Negli Stati Uniti più volte le “associazioni di comunità” hanno svolto un ruolo fondamentale per il controllo degli strumenti di polizia predittiva. Dalla California a New York molti cittadini hanno raccolto firme, proposto petizioni, organizzato mobilitazioni finalizzate alla cessazione o, in via alternativa, alla limitazione dell’uso da parte delle forze dell’ordine degli strumenti di polizia predittiva.
A St. Louis, nel Missouri, la popolazione residente ha manifestato contro la polizia, protestando contro una proposta di accordo tra la stessa polizia di St. Louis e una società chiamata Predictive Surveillance Systems che intendeva utilizzare aerei di sorveglianza per raccogliere immagini di cittadini sul campo. I cittadini hanno affermato (giustamente) che il monitoraggio immotivato pone in essere una gravissima invasione della privacy dei cittadini medesimi.
Questi sono solo alcuni dei casi in cui liberi cittadini stanno tentando di contrastare l’intelligenza artificiale e la tecnologia oppressiva. Questi processi di polizia predittiva e di mappatura controllata del territorio non possono diventare strumenti di diseguaglianza sociale; probabilmente rendere fruibili in modo intellegibile e trasparente alcune informazioni consisterebbe in un passo importante verso l’accettazione di tali strumenti.
Lo stesso Parlamento europeo nel report del gennaio 2019 su “AI and Robotics” sottolinea la necessità di attuare una politica di “intelligibility of decisions”, oltre che il diritto dell’interessato ad essere informato circa la logica del trattamento automatizzato e la garanzia dell’intervento umano, secondo le previsioni previste dalle normative.
Conclusioni
Sicuramente questi sistemi hanno portato notevoli benefici nella prevenzione di alcune tipologie di crimini, nonostante questo non dovrebbe mai mancare un controllo operativo umano determinante, volto ad indirizzare nella maniera più corretta e oggettiva possibile i risultati delle valutazioni compiute dall’IA, special modo quando questa è dotata di meccanismi di auto-apprendimento.
I passi da compiere sono ancora molti: la legislazione in materia ha ancora molti aspetti che devono urgentemente essere chiariti e codificati; inoltre la delicatezza della materia implica che i dati che contribuiscono a fornire le “previsioni criminali” siano i più oggettivi possibile, con conseguente (ed a mio avviso auspicabile) attenta valutazione morale dei soggetti adibiti al trattamento di questi dati, a qualsiasi livello siano compiuti. Solo in questo modo questo strumento potrà essere veramente efficace e, soprattutto, accettato e rispettato dalla comunità.