giustizia e ai

Sorveglianza facciale: l’AI Act e il difficile equilibrio tra sicurezza e privacy



Indirizzo copiato

L’AI Act solleva interrogativi sull’uso dell’AI in ambito giudiziario, specialmente per il riconoscimento facciale. Sebbene alcuni vedano vantaggi nella lotta alla criminalità, critiche come quelle di Amnesty International evidenziano rischi per i diritti umani. La normativa cerca un equilibrio tra sicurezza e privacy, ma l’applicazione pratica sarà decisiva

Pubblicato il 15 mar 2024

Massimo Borgobello

Avvocato a Udine, co-founder dello Studio Legale Associato BCBLaw, PHD e DPO Certificato 11697:2017



facial recognition

Ora che l’AI Act è stato approvato in via definitiva, ci si chiede come impatterà l’uso dell’intelligenza artificiale nel contesto giudiziario e, in particolare, nel contesto delle indagini preliminari prima e processuale poi. All’entusiasmo di molti operatori fanno ecco svariate voci critiche, non ultima Amnesty International.

Vediamo gli scenari.

Riconoscimento facciale e diritti umani: la voce critica di Amnesty International

Il riconoscimento facciale (facial recognition o face detection) viene salutato dai fautori del “legge e ordine” come strumento di perseguimento di reati e di ricerca delle persone scomparse o sequestrate: questi sono, in definitiva, i macroambiti in cui è consentita per fini giudiziari.

D’altra parte, siamo abituati a intercettazioni telefoniche e ambientali a strascico, regolarmente pubblicate, spesso contro ogni normativa vigente, da quotidiani e televisioni: non sorprende, quindi, che uno strumento simile, per quanto invasivo, non spaventi chi ritiene di non aver nulla da temere perché non fa nulla di male.

Non mancano però le voci critiche, Amnesty International in primis.

Dal sito della ONG, infatti, si legge, ad esempio, la dichiarazione di Mher Hakobyan, consulente di Amnesty International su intelligenza artificiale e diritti umani: “I decisori politici dell’Unione europea lo celebrano come un modello universale per la regolamentazione dell’intelligenza artificiale, ma l’AI Act non tiene conto dei principi fondamentali in materia di diritti umani”.

Non solo: “L’AI Act offre garanzie limitate alle persone che ne sono maggiormente colpite e alle comunità marginalizzate; non vieta l’utilizzo e l’esportazione di tecnologie di intelligenza artificiale pericolose e non garantisce protezione a migranti, rifugiati e richiedenti asilo. Mancano, inoltre, disposizioni adeguate in tema di responsabilità e trasparenza, che probabilmente esacerberanno le violazioni dei diritti umani”.

Scrupoli sacrosanti: resta il fatto che una delle ragioni che hanno determinato il braccio di ferro sull’impiego del riconoscimento facciale in ambito giudiziario era costituito dal contrasto al terrorismo e alla criminalità organizzata, ossia due ambiti strettamente connessi all’immigrazione di massa registrata nel Vecchio Continente negli ultimi anni,

Detto questo, vediamo in concreto di cosa si parla, partendo da dove eravamo rimasti in ambito di normativa nazionale.

La normativa nazionale sull’intelligenza artificiale

L’impiego di telecamere dotate di software di riconoscimento facciale è un tema che è stato a già affrontato in sede nazionale dal 2022 al 2023; alcuni Comuni italiani hanno provato a installarle per prevenzione di reati: il Garante privacy aveva – correttamente – bloccato l’impiego di queste tecnologie per l’assoluta assenza di garanzie per gli interessati.

Il legislatore italiano era poi intervenuto con una “moratoria” dell’uso delle telecamere a riconoscimento facciale fino al dicembre 2023, in attesa della regolamentazione europea, arrivata, appunto il 13 marzo 2024.

Data la tecnologia che consente sia di riconoscere soggetti in tempo reale che in un secondo momento, non sarebbe stato coerente con i sistemi giuridici in generale e giudiziari in particolare non utilizzarla, seppure con limiti strettissimi e garanzie legislativamente previste

Riconoscimento facciale: definizioni e garanzie dell’AI Act

L’AI Act consente il riconoscimento facciale in alcuni specifici settori e la vieta completamente in altri; ne offre anche una definizione, al Considerando 15 della versione approvata dal Parlamento europeo (e non ancora pubblicata in Gazzetta Ufficiale): “La nozione di “identificazione biometrica” di cui al presente regolamento dovrebbe essere definita come il riconoscimento automatico di caratteristiche fisiche, fisiologiche e comportamentali di una persona, quali il volto, il movimento degli occhi, la forma del corpo, la voce, la prosodia, l’andatura, la postura, la frequenza cardiaca, la pressione sanguigna, l’odore, la pressione esercitata sui tasti, allo scopo di determinare l’identità di una persona confrontando i suoi dati biometrici con quelli di altri individui memorizzati in una banca dati di riferimento, indipendentemente dal fatto che la persona abbia fornito il proprio consenso. Sono esclusi i sistemi di IA destinati a essere utilizzati per la verifica biometrica, che include l’autenticazione, la cui unica finalità è confermare che una determinata persona fisica è la persona che dice di essere e confermare l’identità di una persona fisica al solo scopo di accedere a un servizio, sbloccare un dispositivo o disporre dell’accesso di sicurezza a locali”.

Non solo; il Regolamento è estremamente preciso e, all’articolo 3, paragrafi 34 e 35, offre le seguenti definizioni: “34) “dati biometrici“: i dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica, quali l’immagine facciale o i dati dattiloscopici;

35) “identificazione biometrica“: il riconoscimento automatizzato delle caratteristiche umane fisiche, fisiologiche, comportamentali o psicologiche allo scopo di determinare l’identità di una persona fisica confrontando i suoi dati biometrici con quelli di individui memorizzati in una banca dati”.

Come gli Stati possono usare il riconoscimento facciale

Fondamentalmente, gli Stati membri potranno impiegare le tecnologie di riconoscimento facciale sia in tempo reale che successivo per attività di indagine su determinati reati – i più gravi – per effettuare attività di contrasto a criminalità organizzata e terrorismo e per la ricerca di persone scomparse o sequestrate.

L’articolo 4, infatti, alla lettera h) dispone quanto segue, in termini di liceità di riconoscimento facciale in tempo reale: “(è vietato) l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazia accessibili al pubblico a fini di attività di contrasto, a meno che e nella misura in cui tale uso sia strettamente necessario per uno dei seguenti obiettivi:

i) la ricerca mirata di specifiche vittime di sottrazione, tratta di esseri umani o sfruttamento sessuale di esseri umani, nonché la ricerca di persone scomparse;

ii) la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l’incolumità fisica delle persone fisiche o di una minaccia reale e attuale o reale e prevedibile di un attacco terroristico;

iii) la localizzazione o l’identificazione di una persona sospettata di aver commesso un reato, ai fini dello svolgimento di un’indagine penale, dell’esercizio di un’azione penale o dell’esecuzione di una sanzione penale per i reati di cui all’allegato II, punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno quattro anni”.

Il tutto dovrà preventivamente essere vagliato dalle autorità previste dall’articolo 4 e dovrà essere autorizzato da un’ autorità indipendente o giudiziaria secondo il diritto nazionale.

In Italia è altamente prevedibile che la procedura adottata sarà speculare a quella prevista per le intercettazioni telefoniche e ambientali, che prevede una richiesta da parte del pubblico ministero al giudice per le indagini preliminari che la accoglie – se la accoglie – con decreto motivato.

Conclusioni

Se il focus è unicamente diretto alla tutela dei diritti umani, ha ragione Amnesty International a lanciare l’allarme; se si guarda al bilanciamento degli interessi in termini anche di politica giudiziaria, il discorso si ribalta del tutto.

Non avrebbe senso utilizzare le intercettazioni telefoniche e ambientali e proibire il riconoscimento facciale; ha certamente senso circoscrivere e limitare gli ambiti di applicazione di entrambi gli strumenti, data la loro invasività.

Il bilanciamento trovato in sede europea è certamente razionale; molto starà all’applicazione concreta nei singoli Stati membri.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3