intelligenza artificiale

Vietare il riconoscimento facciale in luoghi pubblici, il parere EDPB e EDPS

L’EDPB e l’EDPS, esprimendosi sul regolamento Ue sull’AI, chiedono il divieto di utilizzare sistemi di IA per il riconoscimento automatizzato delle caratteristiche umane in spazi accessibili al pubblico. Garante Privacy italiano e ICO sono sulla stessa linea. Ecco dove vanno le regole e perché

Pubblicato il 23 Giu 2021

Anna Cataleta

Senior Partner di P4I e Senior Advisor presso l’Osservatorio Cybersecurity & Data Protection (MIP)

clearview polizia

Il 21 giugno l’EDPB e l’EDPS si sono espressi con un parere comune sulla proposta di nuovo Regolamento presentato dalla Commissione Europea per disciplinare l’utilizzo di sistemi di Intelligenza Artificiale in Europa e hanno sottolineano la necessità di chiarire esplicitamente che il rispetto degli obblighi giuridici derivanti dalla legislazione dell’Unione – compresa la normativa a protezione dei dati personali – è da considerarsi condizione preliminare perché un sistema di IA possa lecitamente entrare nel mercato europeo.

I punti EDPB e EDPS sul regolamento AI della Commissione UE

Le Autorità hanno inoltre accolto con favore l’approccio “risk based” insito nella nuova proposta normativa ed evidenziato gli elevati rischi connessi all’identificazione biometrica a distanza e in spazi pubblicamente accessibili. A questo proposito il Presidente EDPB, Andrea Jelinek, e l’EDPS, Wojciech Wiewiórowski, hanno congiuntamente affermato che consentire l’identificazione biometrica a distanza in spazi pubblicamente accessibili significherebbe la fine dell’anonimato in quei luoghi e che l’utilizzo di sistemi di IA per il riconoscimento facciale, la rilevazione dell’andatura, delle impronte digitali, del DNA, della voce e di altri segnali biometrici o comportamentali determinerebbe il rischio di una compressione dei diritti e delle libertà fondamentali tale da mettere in discussione l’essenza stessa dei diritti e delle libertà.

Commissione UE: “Ecco la vera forza del Regolamento AI”

Per questi motivi le Autorità richiedono l’adozione immediata di un approccio precauzionale che ponga il divieto generale di utilizzo di sistemi per il riconoscimento biometrico in aree pubblicamente accessibili. L’EDPB e l’EDPS hanno inoltre raccomandato di vietare l’utilizzo di sistemi di IA che ricorrono alla biometria per effettuare classificazioni di individui sulla base dell’appartenenza ad un determinato genere o etnia, dell’orientamento politico o sessuale, o sulla base di altri fattori che rendono tale discriminazione vietata ai sensi dell’articolo 21 della Charter of Fundamental Rights. A parere delle Autorità dovrebbe essere altresì vietato l’utilizzo di sistemi AI per l’attribuzione di un social scoring a persone fisiche e per la deduzione di sentimenti ed emozioni (fatte salve alcune specifiche circostanze, ad esempio in relazione alla rilevazione delle emozioni di pazienti per scopi sanitari).

Le riflessioni dell’EDPB in relazione ai sistemi di rilevazione di dati biometrici in aree accessibili al pubblico non sono del tutto nuove per le Data Protection Authority europee.

Vediamo in dettaglio l’orientamento del Garante Italiano per la Protezione dei Dati Personali espresso nel parere dello scorso 25 marzo sul sistema “Sari Real Time” e l’Opinion dell’Information Commissioner (ICO) “The use of Live Facial Recognition Technologies in public places” pubblicata il 18 giugno.

Il parere del Garante privacy italiano sul riconoscimento facciale

Il riconoscimento facciale è stato oggetto di attenzione da parte del Garante Italiano per la Protezione dei Dati Personali che negli ultimi mesi ha avuto modo di pronunciarsi sui trattamenti automatizzati di dati biometrici in diversi settori, dal contesto lavorativo a quello della pubblica sicurezza, provvedendo a fare un’opera di raccordo tra la disciplina previgente, sotto la quale erano state emanate le linee guida per il trattamento dei dati biometrici del 2014 e il nuovo regolamento europeo.

I rischi connessi al trattamento dei dati biometrici per le libertà e i diritti dei cittadini sono infatti rilevanti sotto più profili: oltre al rischio di associazione di un soggetto a un determinato evento, vi sono rischi di discriminazione legati all’evoluzione dei sistemi di intelligenza artificiale e le logiche sottostanti al funzionamento dell’algoritmo, anche in chiave predittiva.

Il Garante ha provveduto a ricostruire la disciplina nel parere reso al Ministero dell’Interno in relazione al sistema di riconoscimento facciale, integrato con l’Intelligenza Artificiale, “Sari Real Time” [doc. web. 9575877].

Il caso ministero interno e SARI

Dagli accertamenti effettuati dal Garante è emerso che il sistema selezionato dal Ministero dell’Interno prevedeva la possibilità di installare telecamere in zone predeterminate che erano in grado, grazie a un algoritmo di Intelligenza Artificiale, di confrontare i volti dei passanti con una banca dati (c.d. watch-list) che poteva contenere fino a 10.000 volti. In caso di associazione positiva tra il volto inquadrato e quello inserito nella watch-list, il sistema generava un alert in grado di avvisare gli operatori.

Il sistema era implementato per finalità di ordine e sicurezza pubblica oltre che per specifiche finalità di Polizia Giudiziaria come risulta dalla Valutazione d’Impatto che è stata effettuata dal Ministero dell’Interno e che, ai sensi dell’art. 35 GDPR par. 3 lett. f), è obbligatoria quando il trattamento consiste nella “sorveglianza sistematica su larga scala di una zona accessibile al pubblico”.

Il Garante ha tuttavia rilevato che il trattamento non risulta proporzionato ai rischi per i diritti e le libertà dei cittadini, in quanto consente la rilevazione delle persone presenti, anche in occasione di manifestazioni sociali e politiche, generando modelli biometrici di tutti i presenti per confrontarli con la c.d. watch-list. Tale trattamento appare eccessivo nonostante i modelli biometrici dei soggetti non coinvolti siano cancellati immediatamente dopo la rilevazione. Nell’ottica del Garante, infatti, il sistema determina “una evoluzione della natura stessa dell’attività di sorveglianza, passando dalla sorveglianza mirata di alcuni individui alla possibilità di sorveglianza universale allo scopo di identificare alcuni individui.”

L’attività di sorveglianza comporta, in ogni caso, un trattamento di particolari categorie di dati personali per le quali è necessaria una specifica base giuridica. Ciò sia sulla base del disposto dell’art. 9 GDPR che dell’art. 3 della Direttiva 2016/680 sulla collaborazione delle Forze di Polizia che dispone che i trattamenti di dati personali da parte degli organi di Polizia devono basarsi su disposizioni di legge o, ove da questa previsto, di regolamento.

Il Garante richiama altresì l’articolo 8 della Convenzione europea per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali, in relazione al rispetto per la vita privata e la previsione che non possa esservi ingerenza di una autorità pubblica nell’esercizio del diritto alla riservatezza a meno che tale ingerenza sia prevista dalla legge e costituisca una misura che, in una società democratica, sia necessaria alla sicurezza nazionale, al benessere economico del paese, alla difesa dell’ordine e alla prevenzione dei reati, alla protezione della salute o della morale, o alla protezione dei diritti e delle libertà altrui.

Viene richiamato altresì l’art. 52 della Carta dei Diritti Fondamentali dell’Unione Europea che stabilisce che eventuali limitazioni all’esercizio dei diritti e delle libertà riconosciuti dalla Carta devono essere previste dalla legge e rispettare il contenuto essenziale di detti diritti e libertà.

L’art. 7 del Decreto che recepisce la direttiva (Decreto del Ministro dell’Interno del 24 maggio 2017) stabiliva inoltre che il trattamento dei dati particolari di cui all’articolo 9 GDPR è soggetto a condizioni specifiche, tra le quali quella di dover essere “specificamente previsto dal diritto dell’Unione europea o da legge o, nei casi previsti dalla legge, da regolamento”.

L’assenza di una base giuridica idonea, ai sensi dell’art. 7 del Decreto, a consentire il trattamento dei dati biometrici attraverso un sistema di riconoscimento facciale era già stato rilevato dal Garante in un precedente provvedimento (doc. web n. 9309458) in relazione all’installazione di un sistema di riconoscimento facciale da parte del comune di Como.

Il Garante si trova a indicare al legislatore che non è sufficiente che una norma di legge autorizzi una determinata attività, anche attraverso l’utilizzo di dati biometrici, in conformità alle norme di legge e di regolamento europee, ma è necessario che la norma di legge individui gli ambiti e i limiti del trattamento.

L’Autorità, in definitiva, anticipa i timori che emergeranno formalmente in sede di esame del regolamento sull’Intelligenza Artificiale affermando che: “al riguardo è da osservare che tale base giuridica, in esito alla ponderazione di tutti i diritti e le libertà coinvolti, dovrà, tra l’altro, rendere adeguatamente prevedibile l’uso di tali sistemi, senza conferire una discrezionalità così ampia che il suo utilizzo dipenda in pratica da coloro che saranno chiamati a disporlo, anziché dalla emananda previsione normativa.

Ciò vale anche per quanto riguarda alcuni aspetti fondamentali dell’impiego della tecnica di riconoscimento facciale in argomento, come, a titolo di mero esempio, i criteri di individuazione dei soggetti che possano essere inseriti nella watch-list o quelli per determinare i casi in cui può essere utilizzato il sistema. Dovranno essere considerati, altresì, i limiti delle tecniche in argomento, notoriamente basate su stime statistiche della corrispondenza tra gli elementi confrontati e, quindi, intrinsecamente fallibili, stimando le eventuali conseguenze per gli interessati in caso di falsi positivi.”

Il trattamento dei dati biometrici in Italia

La tecnologia non aspetta il legislatore. È su questo assunto che nel 2016 è stato approvato il GDPR, per garantire una tutela dei dati personali che fosse tecnologicamente neutrale.

Tuttavia, non appena è entrato in vigore il nuovo regolamento, gli addetti ai lavori hanno evidenziato la difficoltà di calare i principi giuridici di protezione dei dati nella realtà tecnologica e più operativa, nei nuovi progetti e, in particolare, sull’Intelligenza Artificiale e gli impatti che questa può avere sui diritti e le libertà degli individui.

Ne è un esempio il tema del riconoscimento facciale, che è tra gli ambiti disciplinati dalla proposta di regolamento europeo sull’Intelligenza Artificiale e già oggetto di disciplina del nostro vecchio codice privacy all’art. 2 septies. L’attuale GDPR, in base agli articoli 22 e 9, descriverebbe il riconoscimento facciale come un trattamento automatizzato di dati biometrici.

Nella disciplina vigente, il trattamento automatizzato di particolari categorie di dati personali richiede l’esecuzione di una valutazione d’impatto ai sensi dell’art. 35 GDPR al fine di verificare il rispetto dei principi di liceità, trasparenza, correttezza, limitazione del trattamento e minimizzazione, nonché per mitigare i possibili rischi sui diritti e le libertà degli interessati.

La condizione di liceità per il trattamento di particolari categorie di dati personali è da rinvenirsi nel paragrafo 2 dell’articolo 9 GDPR. Se il consenso dell’interessato richiede che il titolare indichi le finalità specifiche del trattamento, le altre condizioni di liceità rinviano all’adozione di garanzie adeguate o di norme adottate da parte degli stati membri in conformità al diritto dell’Unione. Nel nostro ordinamento interno, il trattamento dei dati biometrici era disciplinato dalle linee guida sulla biometria che il Garante aveva adottato nel 2014 e che ad oggi rimane in attesa di un intervento di adeguamento ai principi del GDPR. Inoltre, la nuova normativa richiede che il Garante indichi le misure di garanzia adeguate come previsto dall’art. 2 septies del D.lgs 196/2003.

Ad oggi, gli ambiti in cui è possibile il trattamento di dati biometrici – previa esecuzione della valutazione d’impatto – sono quelli oggetto delle autorizzazioni generali del Garante che sono state ratificate all’indomani dell’entrata in vigore del GDPR e che richiedono un’interpretazione restrittiva.

L’Opinion dell’Information Commissioner (ICO)

Lo scorso 18 giugno la Data Protection Authority del Regno Unito (ICO) ha pubblicato una Opinion in relazione all’utilizzo di sistemi di Live Facial Recognition (LFR) in luoghi accessibili al pubblico.

In generale, secondo quanto riferito dall’ICO, i sistemi di rilevazione di dati biometrici facciali possono essere distinti in due principali categorie: Facial Recognition Technology (FRT) e Live Facial Recognition (LFR). I sistemi FRT sono software di rilevazione di dati biometrici che consentono di riscontrare il grado di somiglianza tra due modelli facciali e di identificare una corrispondenza (e.g. verificare l’identità di un soggetto), o di collocare un modello in una particolare categoria (e.g. gruppo di età) e possono essere impiegati in un’ampia varietà di contesti, come per sbloccare uno smartphone, creare un conto bancario online, passare attraverso il controllo dei passaporti. Per la rilevazione di dati biometrici facciali i sistemi FRT richiedono l’attivo e diretto coinvolgimento dei soggetti interessati che sono consapevoli di essere sottoposti a trattamento e informati delle finalità per cui tale trattamento viene effettuato.

A differenza dei sistemi FRT, i sistemi di Live Facial Recognition (LFR) – oggetto dell’analisi dell’ICO – sono software maggiormente invasivi che consentono la rilevazione in tempo reale e su larga scala dei dati biometrici facciali di tutti i soggetti che entrano nel raggio d’azione del dispositivo di rilevazione, senza che tali soggetti abbiano la consapevolezza di essere sottoposti a trattamento o possano in qualche modo opporvisi.

La tecnologia LFR è spesso utilizzata nel settore dei trasporti, per sorvegliare determinate aree (i.e. centri commerciali, stazioni), per prevenire crimini o altri comportamenti indesiderati nell’ambito del commercio al dettaglio. L’ICO ha però rilevato come queste tecnologie siano sempre più spesso utilizzate anche nello svolgimento di attività di marketing (i.e. audience and engagement measurement) e targettizzazione di clienti e prospect anche attraverso analisi demografiche che possono includere il genere, l’etnia, l’età, lo stile dell’abbigliamento, i brand indossati e, potenzialmente, consentire la visualizzazione di annunci pubblicitari ad hoc. L’Autorità ha rilevato inoltre che nel prossimo futuro la tecnologia LFR potrebbe essere integrata con big-data e con informazioni ricavate dai social media.

L’ICO, dopo aver revisionate numerose DPIA relative a sistemi LFR e consapevole delle preoccupazioni che desta l’utilizzo di questa tecnologia, ha svolto delle indagini finalizzate a identificare le questioni chiave da esaminare ogni qualvolta un sistema di LFR viene utilizzato. Tra queste vi sono: i) la governance dei sistemi LFR (il perché e il come il sistema viene utilizzato); ii) la velocità e la scala con cui i dati biometrici vengono raccolti; iii) la necessità e la proporzionalità del trattamento; iv) la mancanza di scelta e di controllo per gli individui; v) la trasparenza e la possibilità per gli interessati di esercitare i loro diritti;  vi) il potenziale di bias e discriminazione; vii) il trattamento dei dati relativi a minori e ad altri soggetti vulnerabili; viii) l’efficacia e la precisione statistica dei sistemi LFR.

La DPA inglese ha inoltre evidenziato che, affinché l’utilizzo di sistemi che ricorrono alla tecnologia LFR sia legittimo, il titolare del trattamento deve provvedere ad identificare la base giuridica del trattamento, garantire che quest’ultimo sia necessario e proporzionato al perseguimento delle finalità prestabilite, valutare i potenziali impatti negativi derivanti dall’utilizzo del sistema di LFR, assicurarsi che questi siano giustificati dalle finalità perseguite e agire in conformità ai principi di privacy by design e privacy by default.

Nell’Opinion l’ICO presta particolare attenzione all’applicazione dei principi di necessità e proporzionalità in relazione ai trattamenti effettuati mediante tecnologia LFR. Nello specifico, la DPA inglese sottolinea che, affinché il trattamento soddisfi il requisito di necessità, il trattamento deve essere “ragionevolmente necessario” e non indispensabile o assolutamente necessario. In ogni caso, il trattamento effettuato mediante sistema LFR non risulterà essere necessario qualora la finalità predefinita dal Titolare avrebbe potuto essere oltremodo perseguita ricorrendo a strumenti tecnologici meno invasivi. Il principio di proporzionalità, strettamente collegato a quello di necessità, è stato ampiamente esaminato dalla giurisprudenza britannica che ha definito una serie di test da effettuare al fine di valutare se un’interferenza con i diritti individuali possa o meno considerarsi giustificata. In particolare, il Titolare del trattamento dovrebbe: i) verificare se l’obiettivo perseguito è sufficientemente rilevante da giustificare il trattamento; ii) verificare se è stato raggiunto un equilibrio tra gli interessi del Titolare, gli interessi della comunità, i diritti degli individui.

Qualora il Titolare del trattamento ricorra a sistemi LFR per raccogliere e analizzare dati biometrici in maniera indiscriminata e su larga scala, in considerazione della pervasività dell’intrusione nella sfera individuale dei soggetti interessati, l’ICO indica al Titolare di valutare se le finalità da essi perseguiti giustifichino: i) il trattamento automatico dei dati biometrici – anche relativi a special categories di dati personali – di tutti gli individui all’interno di una determinata area geografica; ii) la raccolta di dati senza che i soggetti interessati possano manifestare alcuna scelta di sottoporsi a trattamento o controllo su di esso; iii)  qualsiasi pregiudizio – anche potenziale – diretto o indiretto a danno dei soggetti interessati (i.e. allontanamento da un locale, rinvio alle forze dell’ordine, stigma o imbarazzo sociale, o qualsiasi interferenza con i diritti a tutela della dignità personale).

L’ICO ha anche precisato che prima di utilizzare un sistema di LFR, e qualora ricorrano le condizioni previste dall’art. 35 del GDPR, il Titolare del trattamento è tenuto a svolgere un preventivo Data Protection Impact Assessment (DPIA). L’Autorità sottolinea anche che, nella maggior parte dei casi di utilizzo di sistemi di LFR, lo svolgimento di DPIA preventiva è ritenuto necessario. Il documento allegato all’Opinion dell’ICO fornisce consigli dettagliati su come i Titolari del trattamento dovrebbero affrontare le valutazioni richieste nell’ambito di una DPIA per l’utilizzo di sistemi LFR in luoghi accessibili al pubblico.

Conclusione

Dal documento dell’ICO e dal parere del Garante italiano emerge la consapevolezza dell’attitudine dei dati biometrici ad identificare univocamente le persone fisiche e che il processo di raccolta di dati biometrici facciali, a differenza della raccolta di impronte digitali o di campioni di DNA – che viene effettuata secondo una logica “one to one” e con la collaborazione del soggetto interessato – possa invece avvenire anche senza l’attiva e consapevole cooperazione dell’individuo oggetto della rilevazione. Inoltre, tali sistemi consentono di identificare in modo univoco un individuo in differenti contesti e dedurre informazioni ulteriori che lo riguardano come il sesso, l’età anagrafica, l’etnia.

Tali processi possono aver luogo su larga scala e a velocità significativa così garantire l’effettivo controllo di una determinata area e consentire ai soggetti che utilizzato tali sistemi di intervenire in tempo reale. I rischi connessi a tali trattamenti sono così rilevanti e di possibile impatto sull’evoluzione di una società democratica da portare l’EDPB e l’EDPS a chiedere il divieto di utilizzare sistemi di IA per il riconoscimento automatizzato delle caratteristiche umane in spazi accessibili al pubblico. Sarà da verificare se le preoccupazioni delle Autorità europee verranno recepite nella versione definitiva del Regolamento sull’Intelligenza Artificiale.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati