Ora che l’AI Act è stato approvato in via definitiva, ci si chiede come impatterà l’uso dell’intelligenza artificiale nel contesto giudiziario e, in particolare, nel contesto delle indagini preliminari prima e processuale poi. All’entusiasmo di molti operatori fanno ecco svariate voci critiche, non ultima Amnesty International.
Vediamo gli scenari.
Riconoscimento facciale e diritti umani: la voce critica di Amnesty International
Il riconoscimento facciale (facial recognition o face detection) viene salutato dai fautori del “legge e ordine” come strumento di perseguimento di reati e di ricerca delle persone scomparse o sequestrate: questi sono, in definitiva, i macroambiti in cui è consentita per fini giudiziari.
D’altra parte, siamo abituati a intercettazioni telefoniche e ambientali a strascico, regolarmente pubblicate, spesso contro ogni normativa vigente, da quotidiani e televisioni: non sorprende, quindi, che uno strumento simile, per quanto invasivo, non spaventi chi ritiene di non aver nulla da temere perché non fa nulla di male.
Non mancano però le voci critiche, Amnesty International in primis.
Dal sito della ONG, infatti, si legge, ad esempio, la dichiarazione di Mher Hakobyan, consulente di Amnesty International su intelligenza artificiale e diritti umani: “I decisori politici dell’Unione europea lo celebrano come un modello universale per la regolamentazione dell’intelligenza artificiale, ma l’AI Act non tiene conto dei principi fondamentali in materia di diritti umani”.
Non solo: “L’AI Act offre garanzie limitate alle persone che ne sono maggiormente colpite e alle comunità marginalizzate; non vieta l’utilizzo e l’esportazione di tecnologie di intelligenza artificiale pericolose e non garantisce protezione a migranti, rifugiati e richiedenti asilo. Mancano, inoltre, disposizioni adeguate in tema di responsabilità e trasparenza, che probabilmente esacerberanno le violazioni dei diritti umani”.
Scrupoli sacrosanti: resta il fatto che una delle ragioni che hanno determinato il braccio di ferro sull’impiego del riconoscimento facciale in ambito giudiziario era costituito dal contrasto al terrorismo e alla criminalità organizzata, ossia due ambiti strettamente connessi all’immigrazione di massa registrata nel Vecchio Continente negli ultimi anni,
Detto questo, vediamo in concreto di cosa si parla, partendo da dove eravamo rimasti in ambito di normativa nazionale.
La normativa nazionale sull’intelligenza artificiale
L’impiego di telecamere dotate di software di riconoscimento facciale è un tema che è stato a già affrontato in sede nazionale dal 2022 al 2023; alcuni Comuni italiani hanno provato a installarle per prevenzione di reati: il Garante privacy aveva – correttamente – bloccato l’impiego di queste tecnologie per l’assoluta assenza di garanzie per gli interessati.
Il legislatore italiano era poi intervenuto con una “moratoria” dell’uso delle telecamere a riconoscimento facciale fino al dicembre 2023, in attesa della regolamentazione europea, arrivata, appunto il 13 marzo 2024.
Data la tecnologia che consente sia di riconoscere soggetti in tempo reale che in un secondo momento, non sarebbe stato coerente con i sistemi giuridici in generale e giudiziari in particolare non utilizzarla, seppure con limiti strettissimi e garanzie legislativamente previste
Riconoscimento facciale: definizioni e garanzie dell’AI Act
L’AI Act consente il riconoscimento facciale in alcuni specifici settori e la vieta completamente in altri; ne offre anche una definizione, al Considerando 15 della versione approvata dal Parlamento europeo (e non ancora pubblicata in Gazzetta Ufficiale): “La nozione di “identificazione biometrica” di cui al presente regolamento dovrebbe essere definita come il riconoscimento automatico di caratteristiche fisiche, fisiologiche e comportamentali di una persona, quali il volto, il movimento degli occhi, la forma del corpo, la voce, la prosodia, l’andatura, la postura, la frequenza cardiaca, la pressione sanguigna, l’odore, la pressione esercitata sui tasti, allo scopo di determinare l’identità di una persona confrontando i suoi dati biometrici con quelli di altri individui memorizzati in una banca dati di riferimento, indipendentemente dal fatto che la persona abbia fornito il proprio consenso. Sono esclusi i sistemi di IA destinati a essere utilizzati per la verifica biometrica, che include l’autenticazione, la cui unica finalità è confermare che una determinata persona fisica è la persona che dice di essere e confermare l’identità di una persona fisica al solo scopo di accedere a un servizio, sbloccare un dispositivo o disporre dell’accesso di sicurezza a locali”.
Non solo; il Regolamento è estremamente preciso e, all’articolo 3, paragrafi 34 e 35, offre le seguenti definizioni: “34) “dati biometrici“: i dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica, quali l’immagine facciale o i dati dattiloscopici;
35) “identificazione biometrica“: il riconoscimento automatizzato delle caratteristiche umane fisiche, fisiologiche, comportamentali o psicologiche allo scopo di determinare l’identità di una persona fisica confrontando i suoi dati biometrici con quelli di individui memorizzati in una banca dati”.
Come gli Stati possono usare il riconoscimento facciale
Fondamentalmente, gli Stati membri potranno impiegare le tecnologie di riconoscimento facciale sia in tempo reale che successivo per attività di indagine su determinati reati – i più gravi – per effettuare attività di contrasto a criminalità organizzata e terrorismo e per la ricerca di persone scomparse o sequestrate.
L’articolo 4, infatti, alla lettera h) dispone quanto segue, in termini di liceità di riconoscimento facciale in tempo reale: “(è vietato) l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazia accessibili al pubblico a fini di attività di contrasto, a meno che e nella misura in cui tale uso sia strettamente necessario per uno dei seguenti obiettivi:
i) la ricerca mirata di specifiche vittime di sottrazione, tratta di esseri umani o sfruttamento sessuale di esseri umani, nonché la ricerca di persone scomparse;
ii) la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l’incolumità fisica delle persone fisiche o di una minaccia reale e attuale o reale e prevedibile di un attacco terroristico;
iii) la localizzazione o l’identificazione di una persona sospettata di aver commesso un reato, ai fini dello svolgimento di un’indagine penale, dell’esercizio di un’azione penale o dell’esecuzione di una sanzione penale per i reati di cui all’allegato II, punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno quattro anni”.
Il tutto dovrà preventivamente essere vagliato dalle autorità previste dall’articolo 4 e dovrà essere autorizzato da un’ autorità indipendente o giudiziaria secondo il diritto nazionale.
In Italia è altamente prevedibile che la procedura adottata sarà speculare a quella prevista per le intercettazioni telefoniche e ambientali, che prevede una richiesta da parte del pubblico ministero al giudice per le indagini preliminari che la accoglie – se la accoglie – con decreto motivato.
Conclusioni
Se il focus è unicamente diretto alla tutela dei diritti umani, ha ragione Amnesty International a lanciare l’allarme; se si guarda al bilanciamento degli interessi in termini anche di politica giudiziaria, il discorso si ribalta del tutto.
Non avrebbe senso utilizzare le intercettazioni telefoniche e ambientali e proibire il riconoscimento facciale; ha certamente senso circoscrivere e limitare gli ambiti di applicazione di entrambi gli strumenti, data la loro invasività.
Il bilanciamento trovato in sede europea è certamente razionale; molto starà all’applicazione concreta nei singoli Stati membri.