Intelligenza artificiale

L’IA un aiuto nelle attività di Polizia, ma con quali limiti etici?         



Indirizzo copiato

L’intelligenza artificiale (IA) è sempre più utilizzata nelle operazioni di polizia, migliorando l’efficienza e le capacità delle forze dell’ordine. Dalle telecamere intelligenti al rilevamento di armi, fino ai modelli predittivi e alle indagini, l’IA offre nuove soluzioni ma solleva anche questioni etiche e legali significative

Pubblicato il 1 lug 2024

Ernesto Damiani

Senior Director of Robotics and Intelligent Systems Institute at Khalifa University



clearview polizia

L’intelligenza artificiale (IA) ha un numero crescente di applicazioni nelle materie di competenza delle forze dell’ordine. Questo tema è stato spesso analizzato dalla letteratura dal punto di vista tecnologico, discutendo il contributo dell’IA alle soluzioni che possono migliorare le capacità e l’efficienza delle operazioni di polizia.

Gli esempi non mancano, come le telecamere “intelligenti” che possono riconoscere in tempo reale le targhe automobilistiche e i volti dei conducenti, aiutando nell’identificazione dei sospettati.

Le ricerche svolte ad Abu Dhabi presso il Centro sulla Sicurezza dei Sistemi Cyber-fisici della Khalifa University hanno portato a modelli in grado di illuminare ambienti critici – scuole, aeroporti, stazioni – con radiazioni multispettrali ed eseguire la rilevazione preventiva della presenza di armi, persino se sono smontate e avvolte in imballaggi [Hassan et al., 2020].

Questi modelli di IA poliziesca sono pronti per essere incorporati in sistemi robotici mobili; a loro volta questi ultimi possono essere gestiti con tecniche predittive in grado di prevedere potenziali luoghi e tempi delle azioni criminali. Secondo molti, l’integrazione tra IA, mobilità e politiche predittive renderà presto possibili azioni di polizia che fino a ieri erano inimmaginabili.

IA e polizia preventiva: opportunità e rischi

La delega delle decisioni di polizia preventiva a un modello di IA può naturalmente suscitare riserve, soprattutto se il modello delegato è basato su apprendimento computazionale. Chi garantisce che la decisione di intervenire presa da un modello sulla base del suo addestramento non avvenga in violazione di diritti individuali o collettivi?

Prendiamo il caso di un argomento controverso e noto agli operatori del settore di tutto il mondo: la cosiddetta decisione “ferma e perquisisci”. Il Dipartimento di Polizia della città di New York ha condotto milioni di fermi e perquisizioni a New York City negli ultimi due decenni, affidando la scelta di chi fermare all’esperienza e all’addestramento degli agenti di polizia (umani). A New York, i fermi e le perquisizioni attuati come polizia preventiva furono una scelta dell’amministrazione Bloomberg e proseguirono, con alti e bassi, dal 2003 al 2023. Nel 2022, la Polizia di New York ha effettuato oltre 15.000 fermi, il numero più alto dal 2015. Questa tendenza crescente è continuata nel 2023, anno in cui sono stati effettuati quasi 17.000 fermi.

Nel caso della decisione “ferma e perquisisci”, l’idea di delegare un Robocop provvisto di un modello IA in grado di ricevere in ingresso i volti e l’andatura dei passanti (oltre magari a dati di contesto come tempo e luogo del transito) pone una serie di problemi che sono tecnici e giuridici insieme.

Modelli IA e decisioni di polizia: i problemi di addestramento

Anzitutto, l’addestramento del modello: i dati disponibili sulle decisioni prese dagli agenti umani sono abbondanti ma molto sbilanciati, perché solo una piccolissima percentuale delle perquisizioni si è conclusa in un fermo poi convalidato da un giudice. Nella stragrande maggioranza dei casi, la Polizia di New York non ha trovato prove di illeciti e il cittadino fermato non è stato citato in giudizio né tanto meno arrestato.

L’uso di generatori automatici per produrre “criminali sintetici “con cui addestrare il modello comporta altri problemi. Secondo i dati diffusi dallo stesso Dipartimento di Polizia di New York, la maggior parte delle persone fermate dagli agenti erano persone di colore.

Risulta quindi molto difficile ribilanciare I dati di addestramento del modello IA senza introdurre un’eccessiva polarizzazione – vietata dalla normativa federale sull’uso dell’IA – e senza perdere di accuratezza. Inoltre, la semplice notizia della messa in opera dei modelli IA attiva proprio negli agenti criminali comportamenti elusivi messi in opera per ingannare i classificatori, rendendo necessario il riaddestramento continuo del modello. In generale il problema di addestrare correttamente i modelli di IA per prendere decisioni di classificazione delle persone in base all’ispezione del loro comportamento è comune a molte attività di gestione dei processi organizzativi e richiede una serie di precauzioni [Ceravolo et al., 2024].

L’IA nelle indagini: efficacia e limiti

L’ordinamento italiano, come altri ordinamenti europei, prevede una chiara differenza tra le attività preventive (dette anche ispettive o di vigilanza) svolte dalle forze dell’ordine e le attività di indagine (anche preliminari) svolte dagli stessi operatori su mandato e con la supervisione dell’autorità giudiziaria.

Questa differenza, ribadita più volte anche dalla giurisprudenza della Corte di Cassazione, definisce l’attività ispettiva come quella nel corso della quale “possono” emergere indizi di reato; l’attività di indagine, invece, presuppone la consapevolezza di una notitia criminis, anche se non riferita ad una persona determinata (Corte di Cassazione, Sez. Unite, Sentenza n. 45477 del 28/11/2001; Sez. 3, n. 31223 del 04/06/2019; Sez. 2, n. 2601 del 13/12/2005).

Come l’IA può scoprire comportamenti illeciti nascosti nei dati

L’utilizzo dei modelli di IA nell’attività di indagine è stata esplorata da un gruppo di ricerca del Consorzio Inter-Universitario Nazionale per l’Informatica [Bellandi et al., 2022]. I ricercatori hanno proposto modelli IA in grado di cercare nei dati documentali fatti negati o deliberatamente nascosti dagli agenti criminali. Anche in questo contesto, beninteso, ci possono essere comportamenti elusivi: ad esempio i criminali utilizzano canali di comunicazione (ad esempio, le applicazioni di comunicazione con crittografia end-to-end) che generano dati che sono difficili da intercettare e includere nelle fonti documentali da parte delle forze di polizia incaricate dell’indagine.

L’IA può comunque identificare in modo flessibile i modelli di comportamento definiti dai pubblici ministeri sulla base della “notitia criminis”. Ad esempio, il riciclaggio dei proventi (in contanti) di un’attività corrisponde a un ampio spettro di comportamenti per le fasi di raccolta dei contanti e del riciclaggio vero e proprio. La prima può essere fatta da corrieri la cui zona d’azione cambia continuamente, in modo da sfuggire agli accertamenti basati sull’aggancio delle celle telefoniche, mentre la seconda può consistere alternativamente in versamenti su conti correnti bancari effimeri aperti da prestanome o in acquisti fasulli in esercizi commerciali compiacenti. In questo caso, il modello di IA può identificare vecchie e nuove modalità di esecuzione dell’attività criminosa generalizzando i comportamenti sui quali è stato addestrato.

I fattori che influenzano l’affidabilità dei modelli IA in ambito investigativo

Va notato che nel contesto delle indagini, una delega al modello IA – giuridicamente inaccettabile – non sarebbe neppure tecnicamente corretta. Un requisito di base dei modelli di IA è la precisione, che si riferisce al tasso di informazioni rilevanti all’interno delle informazioni recuperate.

Questo requisito influisce su quanto sono affidabili le conclusioni del modello. Tuttavia, un’elevata precisione ottenuta a costo di una bassa generalizzazione in questo caso non sarebbe utile: la scoperta di un solo modo nuovo di riciclaggio attraverso una generalizzazione corretta bilancia un numero elevato di generalizzazioni sbagliate – se il modello lavora senza delega, unicamente come assistente di chi svolge l’indagine sotto la supervisione dell’autorità giudiziaria.

Sicurezza, IA e diritto: le sfide future

La qualità del modello può essere misurata dall’errore di generalizzazione che valuta quanto accuratamente un algoritmo può prevedere valori di risultato per dati mai visti prima.

Sarebbe proibitivo ottenere bassi errori di generalizzazione – e quindi un’elevata accuratezza – da un modello che analizzi i dati documentali raccolti dalle indagini sulla base di una “notitia criminis” astratta e decida se quest’ultima è compatibile con i dati stessi.

Un errore elevato è però accettabile a fronte del successo su alcune generalizzazioni critiche, che scoprano – occasionalmente ma non troppo – nuovi comportamenti che il giudizio del pubblico ministero – e poi del giudice – consideri compatibili con le notizie di reato.

Bibliografia

[Hassan et al., 2020] Hassan, T., Shafay, M., Akçay, S., Khan, S., Bennamoun, M., Damiani, E., & Werghi, N. (2020). Meta-transfer learning driven tensor-shot detector for the autonomous localization and recognition of concealed baggage threats. Sensors, 20(22), 6450.

[Ceravolo et al., 2024] Ceravolo, P., Barbon, S., Damiani, E., & Van der Aalst, W. (2024). Tuning Machine Learning to Address Process Mining Requirements. IEEE Access.

[Bellandi et al., 2022] Bellandi, V., Ceravolo, P., Maghool, S., & Siccardi, S. (2022). Graph embeddings in criminal investigation: towards combining precision, generalization and transparency: special issue on computational aspects of network science. World Wide Web, 25(6), 2379-2402.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3