ai e privacy

Riconoscimento facciale, l’approccio italiano è in antitesi alla Ue: i nodi

L’Italia, col decreto Capienze, sembra essersi posta in antitesi rispetto all’approccio della Commissione europea e all’orientamento ormai consolidato della Corte di giustizia in materia di riconoscimento facciale. Non resta che attendere l’AI Act per valutare le necessarie modifiche alla neo introdotta normativa italiana

Pubblicato il 07 Dic 2022

Ernestina Sacchetto

Assegnista di ricerca in diritto processuale penale presso l'Università degli studi di Torino

Foto di Gerd Altmann da Pixabay

Delle molteplici potenzialità tecnologiche dei software automatici di riconoscimento facciale si stanno – nel tempo – dimostrando ben consapevoli le autorità competenti in materia di prevenzione, indagine, accertamento e perseguimento di reati. Sono innumerevoli i vantaggi che possono trarsi dall’impiego di sistemi automatizzati di riconoscimento facciale: dall’estrema rapidità di esecuzione di una comparazione tra volti, alla facilità di cattura dei sensori che permettono di acquisire dati anche in assenza di collaborazione da parte dell’individuo sottoposto al riconoscimento.

Per tale ragione, le tecnologie di riconoscimento facciale sono state integrate in diversi dispositivi, come sistemi di telecamere a circuito chiuso o smartphone, rendendo sempre più agevole la verifica e la raccolta delle immagini ivi registrate. Anche le finalità di impiego si dimostrano le più varie.

Facciamo il punto sugli orientamenti dell’Europa e sull’approccio italiano.

Riconoscimento facciale vietato in Italia: ma solo per ora e con eccezioni

Gli svariati usi delle tecnologie di riconoscimento facciale

Le tecnologie di riconoscimento facciale non solo possono essere sfruttate dalle forze dell’ordine per identificare e perseguire coloro che risultano sospettati di un reato, ma anche per ricercare persone scomparse, esercitare controlli alle frontiere, ovvero come strumento di gestione delle politiche migratorie e di rimpatrio. Le tecnologie automatiche di riconoscimento facciale sono impiegate altresì all’interno degli stadi, al fine di garantire l’ordine pubblico e rendere più efficiente l’accesso alle strutture, durante i concerti, in occasione di manifestazioni pubbliche e addirittura all’interno dei luoghi di culto.

Anche nel settore privato, i sistemi automatizzati di riconoscimento possono essere impiegati per finalità di sicurezza all’interno di esercizi commerciali o istituti bancari. Tramite la registrazione e la comparazione del proprio volto è oggi possibile effettuare delle transazioni ovvero personalizzare l’offerta di acquisto per diverse categorie di clienti tramite pubblicità mirate. Nell’ambito della domotica, poi, tali software automatici sono utilizzati per accedere alle proprie abitazioni, riconoscere le persone al loro interno e interagire con i dispositivi elettronici.

I possibili abusi dei sistemi di facial recognition

Proprio con riferimento alle potenzialità e alle possibili applicazioni nel settore privato dei sistemi di riconoscimento facciale, si registra un progressivo legame e una comunanza di interessi con il settore di pubblica sicurezza. In particolare, sempre più di frequente, gli organi inquirenti ovvero le autorità di pubblica sicurezza si rivolgono a intermediari privati o alle piattaforme web per collezionare informazioni e dati personali rilevanti. Si pensi al dibattito suscitato dal noto caso Clearview AI, start-up di New York che ha sviluppato un sistema di riconoscimento facciale, venduto a diverse agenzie negli Stati Uniti, impiegato per riconoscere gli individui attraverso la comparazione di foto segnaletiche in possesso alle forze di polizia o di altre fotografie presenti negli archivi delle motorizzazioni civili e collezionando altresì le immagini pubblicate nei social networks[1].

Siamo tutti “schedabili”: il caso Clearview mette alla prova il rapporto tra diritto e tecnologia

Proprio con riferimento ai possibili abusi correlati all’utilizzo di questa tecnologia, alcuni Stati oltreoceano, ove diversi sistemi di sorveglianza sono particolarmente diffusi ormai da anni, stanno discutendo dell’opportunità di proibirne l’impiego alle forze di polizia e ad altre autorità pubbliche. Anche alcune aziende private hanno manifestato l’intenzione di non sviluppare più tali sistemi di riconoscimento, ovvero non metterli più a disposizione delle forze di polizia.

Come si muove l’Ue riguardo i rischi di violazione dei diritti fondamentali 

In Europa si sta registrando – ormai da qualche tempo – una tendenza piuttosto evidente a voler approfondire e prevenire i rischi di violazione dei diritti fondamentali derivanti dall’impiego di tali tecnologie. A partire già dalla Risoluzione del 2019 su “Una politica industriale europea globale in materia di robotica e intelligenza artificiale”, il Parlamento europeo aveva espresso una particolare preoccupazione per l’impiego di alcuni software di intelligenza artificiale, ivi compreso il riconoscimento facciale e vocale, in programmi di “sorveglianza emotiva”, ossia di monitoraggio degli stati d’animo dei lavoratori e dei cittadini al fine di aumentare la produttività e conservare la stabilità sociale[2]. La Commissione europea, nel White Paper del 2020, aveva evidenziato alcune perplessità rispetto agli «scopi di identificazione biometrica a distanza», e per «l’impiego del riconoscimento facciale negli spazi pubblici», in quanto portatore di «specifici rischi per i diritti fondamentali»[3]. Peraltro, in una bozza preliminare del White Paper era stata prospettata la possibilità di proibire l’uso di queste tecnologie da parte di soggetti pubblici e privati per un periodo variabile dai tre ai cinque anni.

Successivamente, anche il Garante europeo per la protezione dei dati[4] e il Parlamento europeo[5] si sono allineati con questa prospettiva.

L’Artificial Intelligence Act

Il 21 aprile 2021, poi, la Commissione europea ha pubblicato la proposta di regolamento «on a European approach for Artificial Intelligence» (Artificial Intelligence Act) incentrata sulla gestione e controllo dei rischi dovuti all’uso dell’IA[6]. In linea generale, i sistemi di riconoscimento biometrico impiegati “in tempo reale” e “a posteriori” sono stati classificati “ad alto rischio”, poiché potenzialmente in grado di generare danni per la salute, la sicurezza e per i diritti fondamentali delle persone. In particolare, l’impiego di sistemi di riconoscimento biometrico “in tempo reale” in spazi accessibili al pubblico, per finalità di law enforcement, è stato considerato particolarmente intrusivo per i diritti e le libertà delle persone interessate, «nella misura in cui potrebbe avere ripercussioni sulla vita privata di un’ampia fetta della popolazione, farla sentire costantemente sotto sorveglianza e scoraggiare in maniera indiretta l’esercizio della libertà di riunione e di altri diritti fondamentali»[7]. Così, i sistemi “real time” di identificazione biometrica impiegati da autorità di law enforcement, in luoghi aperti al pubblico, sono stati vietati[8].

L’utilizzo dei software di riconoscimento facciale per ragioni rilevanti di pubblica sicurezza

Nonostante questo, la Commissione comunque ammette che tali software possano essere anche di rilevante ausilio alle forze dell’ordine in contesti caotici e di grandi assembramenti, ma, trattando una particolare categoria di dati personali[9], possono essere altresì oggetto di abusi e discriminazioni se impiegati in modo deregolato. Per tale ragione, sono state introdotte tre macro-eccezioni (art. 5, 2-4) che prendono in considerazione la natura della situazione e le possibili conseguenze derivanti dal loro utilizzo[10]. Orbene, l’impiego sarebbe consentito per:

  • trovare potenziali vittime di reato, compresi i minori scomparsi;
  • impedire minacce specifiche, sostanziali ed imminenti alla vita o all’incolumità personale (per es. un attacco terroristico);
  • individuare, localizzare, identificare o perseguire i soggetti sospettati di reato di cui all’articolo 2, paragrafo 2, della decisione quadro 2002/584/GAI del Consiglio punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno tre anni, come stabilito dalla legge di tale Stato membro[11].

Si aggiunge che l’utilizzo dei sistemi de quibus dovrà inoltre essere ponderato sulla base della «natura della situazione» nonché sulle «conseguenze» che possono derivarne «per i diritti e le libertà di tutte le persone interessate», con particolare riguardo, nel primo caso, alla «gravità», alla «probabilità» ed all’«entità del danno causato dal mancato uso del sistema» (a) e, nella seconda ipotesi, alla «gravità», alla «probabilità» ed all’«entità» delle suddette conseguenze (b). Viene inoltre operato un riferimento esplicito alla necessità di stabilire limitazioni «temporali» e «geografiche», oltreché «personali», che siano «necessarie e proporzionate in relazione all’uso». In tutti questi casi, secondo la Commissione, l’impiego di questi strumenti sarebbe giustificato da ragioni rilevanti di pubblica sicurezza.

I dubbi interpretativi

Sin da una prima lettura sono emersi diversi dubbi interpretativi circa l’effettiva applicazione del regolamento in questi termini[12]. Quante volte, in occasione per esempio di grandi assembramenti, abbiamo avuto la sensazione di essere in presenza di una minaccia “sostanziale e imminente”? In quali occasioni potremmo essere sicuri di poter trovare una “potenziale vittima di reato”, o un “bambino scomparso”? Oltre a questo, anche la terza eccezione potrebbe essere di complessa applicazione, dal momento che la gravità del reato, per permettere l’attivazione del sistema automatico, è valutata in base al massimo della pena edittale prevista per un determinato reato, che cambia anche per gli stessi titoli di reati nei vari Stati membri. Questo potrebbe portare a disparità di trattamento con conseguenti potenziali problematiche nell’ottica della cooperazione giudiziaria e di polizia. Infatti, potrebbe esserci il rischio che tale tipologia di strumento sia ammessa in uno Stato e non sia, per la stessa fattispecie di reato, attivabile in un altro Stato membro. Oltretutto, la proposta lascia ai singoli ordinamenti la facoltà di decidere se attuare o meno le suddette eccezioni per l’impiego dei tools di riconoscimento tramite specifiche leggi nazionali[13]. La Commissione, infatti, tiene conto del fatto che le questioni di sicurezza nazionale rimangano in ogni caso appannaggio esclusivo riservato agli Stati membri. Oltre a ciò, la proposta di siffatto divieto generalizzato non includerebbe l’impiego di questi tools da parte di altre autorità (per esempio nelle scuole) ovvero da aziende private (per esempio supermercati, società di trasporti o stadi)[14].

V’è da aggiungere che l’utilizzo dei sistemi di riconoscimento automatici sarebbe soggetto in ogni caso ad un’espressa autorizzazione, da parte di un’autorità giudiziaria o di un’autorità amministrativa indipendente, emessa a seguito di richiesta motivata e nel rispetto delle suddette regole nazionali. Occorre accertare, pertanto, sulla base di «prove oggettive» o «indicazioni chiare», la necessità e la proporzionalità della misura rispetto ad almeno una delle finalità ammesse. L’unica ipotesi in cui risulta consentito prescindere dall’autorizzazione riguarda eventuali situazioni di urgenza, salva in ogni caso la necessità di ottenere la convalida (§ 3).

Riconoscimento facciale, quali limiti per le forze dell’ordine: linee guida EDPB

I sistemi di riconoscimento impiegati in modalità “post remote

I sistemi di riconoscimento impiegati in modalità “post remote”, invece, sono considerati dalla Commissione come “ad alto rischio”, posto che «le inesattezze di carattere tecnico (…) possono determinare risultati distorti e comportare effetti discriminatori»[15]. L’impiego di questi sistemi non è vietato. Tuttavia, è necessario che siano rispettati diversi requisiti obbligatori per garantire che tali tools «non presentino rischi inaccettabili per interessi pubblici importanti dell’Unione, come riconosciuti e tutelati dal diritto dell’Unione»[16]. Una volta che il sistema abbia ottenuto la certificazione di conformità ai requisiti suddetti, esso potrebbe essere immesso sul mercato, fermo restando che «qualsiasi trattamento di dati biometrici e di altri dati personali interessati dall’uso di sistemi di IA a fini di identificazione biometrica, diverso da quello connesso all’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico a fini di attività di contrasto disciplinato dal presente regolamento, (…), dovrebbe continuare a soddisfare tutti i requisiti derivanti dall’articolo 9, paragrafo 1, del regolamento (UE) 2016/679, dall’articolo 10, paragrafo 1, del regolamento (UE) 2018/1725 e dall’articolo 10 della direttiva (UE) 2016/680»[17]. La proposta prevede altresì l’introduzione di un sistema di verifica periodica di tali strumenti, eseguita da autorità nazionali competenti designate dagli Stati membri[18].

I sistemi di categorizzazione biometrica

Quanto ai sistemi di categorizzazione biometrica, ricondotti ragionevolmente nella macro categoria dei sistemi di riconoscimento facciale, sono stati definiti nella proposta come tools di IA che impiegano i dati biometrici di persone fisiche «al fine di assegnarle a categorie specifiche, quali quelle basate sul sesso, l’età, il colore dei capelli, il colore degli occhi, i tatuaggi, l’origine etnica o l’orientamento sessuale o politico»[19]. Non essendo classificati come sistemi “ad alto rischio”, essi sarebbero soggetti solamente alle regole di trasparenza concernenti le informazioni da fornire alle persone fisiche che sono esposte sul funzionamento del sistema. Tale proposta di classificazione appare sin da una prima lettura controversa. Infatti, la distinzione fra sistema impiegato a fini di categorizzazione e a fini di riconoscimento rischia di diventare una quaestio puramente arbitraria.

L’impiego in spazi aperti al pubblico di sistemi di categorizzazione biometrica potrebbe avere un impatto altrettanto negativo sui diritti fondamentali degli individui. A titolo esemplificativo, è stato evidenziato come questi sistemi potrebbero essere utilizzati dalle autorità di polizia per «classifying people in public places as of a certain ethnicity or political orientation», posto che «they are under no obligation to include human oversight, or to notify people that the system is in use»[20]. A tal proposito, l’European Data Protection Supervisor (EDPS) sostiene che si dovrebbe adottare un approccio più rigoroso per la regolamentazione dell’impiego del riconoscimento automatizzato in spazi aperti al pubblico, indipendentemente che questi siano utilizzati in un contesto commerciale, amministrativo o di law enforcement[21]. Infatti l’EDPS, insieme all’European Data Protection Board (EDPB), in un parere congiunto non vincolante hanno proposto un «general ban on any use of AI for an automated recognition of human features in publicly accessible spaces – such as of faces but also of gait, fingerprints, DNA, voice, keystrokes and other biometric or behavioural signals – in any context»[22], dal momento che «problem regarding the way to properly inform individuals about this processing is still unsolved»[23]. Oltre a ciò, «the intrusiveness of the processing does not always depend on the identification being done in real-time or not. Post remote biometric identification in the context of a political protest is likely to have a significant chilling effect on the exercise of the fundamental rights and freedoms, such as freedom of assembly and association and more in general the founding principles of democracy. Second, the intrusiveness of the processing does not necessarily depend on its purpose. The use of this system for other purposes such as private security represents the same threats to the fundamental rights of respect for private and family life and protection of personal data»[24].

La richiesta di moratoria del Parlamento sulla diffusione dei sistemi di riconoscimento facciale

Entro tale scenario, il Parlamento europeo con la Risoluzione sull’intelligenza artificiale nel diritto penale e il suo utilizzo da parte delle autorità di polizia e giudiziarie in ambito penale[25], ha chiesto espressamente una moratoria sulla diffusione dei sistemi di riconoscimento facciale per le attività di contrasto[26] «finché le norme tecniche non possano essere considerate pienamente conformi con i diritti fondamentali, i risultati ottenuti siano privi di distorsioni e non discriminatori, il quadro giuridico fornisca salvaguardie rigorose contro l’utilizzo improprio, un attento controllo democratico e adeguata vigilanza, e vi sia la prova empirica della necessità e proporzionalità della diffusione di tali tecnologie».

La situazione in Italia

Venendo al caso italiano, dal 2017 il Ministero dell’Interno dispone del Sistema automatico di riconoscimento immagini (S.A.R.I.). Un tentativo di ricostruzione delle caratteristiche costitutive e operative di questo nuovo e, per certi versi, rivoluzionario strumento può essere operato attraverso il capitolato tecnico[27], allegato al contratto che il Ministero dell’Interno ha sottoscritto con l’azienda privata fornitrice del software. Come specificamente richiesto dal committente, il software è stato predisposto in modo da gestire due scenari operativi, il cd. “Enterprise” e il cd. “Real time”. Nel primo, in uso dal settembre 2018, l’operatore ricerca l’identità di un volto presumibilmente raffigurato all’interno di una banca dati di grandi dimensioni individuata nella piattaforma A.F.I.S. – S.S.A. (Automated fingerprint identification system)[28], ossia il Sistema automatizzato di identificazione delle impronte digitali integrato dal sottosistema S.S.A. L’immagine fotografica viene così filtrata e processata in pochi istanti con il volto di milioni di soggetti schedati attraverso le impronte facciali elaborate dal software.

La procedura di comparazione consente in questo modo di ridurre la cerchia dei sospettati grazie all’elaborazione di un elenco di volti selezionati e ordinati per grado di similarità. Viceversa, la modalità cd. “Real time”, ancora non in uso e finalizzata a potenziare le attività di controllo del territorio in occasione di eventi e manifestazioni, permette l’analisi automatica in tempo reale di volti ripresi in più flussi video live provenienti dalle telecamere installate nella medesima area. I volti presenti nei fotogrammi dei diversi stream video vengono comparati mediante un algoritmo di riconoscimento che attinge gli elementi della comparazione da una banca dati la cui grandezza è dell’ordine delle centinaia di migliaia di immagini. Una volta inserito il frame, il software “passa in rassegna” ad altissima velocità le immagini custodite in archivio e quelle ignote di provenienza eterogenea (sia catturate dallo streaming del video, sia riprese da telefoni cellulari), alla ricerca di un match. Al termine dell’operazione, l’algoritmo restituisce una lista di profili ordinati secondo un punteggio di probabilità basato sul grado di similarità rispetto all’immagine del soggetto da individuare. La corrispondenza del volto ignoto con quello schedato è resa nota all’operatore da un segnale di alert generato dall’algoritmo. Se la ricerca non genera alcun alert, l’immagine analizzata rimane memorizzata all’interno della piattaforma SARI, così da poter segnalare eventuali corrispondenze future, incrementando in tal modo la possibilità di prossimi matches. Se, invece, il tentativo si conclude positivamente, per entrambe le modalità applicative del programma, il risultato dovrà essere posto al vaglio del personale specializzato della polizia scientifica, sul quale incombe il compito di verificare l’esito elaborato dal sistema automatico.

Il SARI “Enterprise”

Con riferimento a SARI “Enterprise”, al termine della fase di sperimentazione del software, conclusa nel settembre 2018[29], il Garante, con il provvedimento n. 440, ha concluso osservando che «il trattamento di dati personali da realizzarsi mediante il sistema SARI “Enterprise”, (…), non presenta criticità sotto il profilo della protezione dati»[30]. L’autorità nazionale ha evidenziato come SARI “Enterprise”, infatti, costituisca solamente uno strumento d’ausilio per l’esecuzione di ricerche all’interno dell’archivio A.F.I.S. ad opera di un addetto che deve comunque inserire manualmente, nella maschera di interrogazione, informazioni anagrafiche, connotati e particolarità di vario genere (per esempio, il colore dei capelli e degli occhi). Entro tale contesto, il software, sottolinea il Garante, si limiterebbe ad automatizzare le operazioni di ricerca e comparazione, consentendo un’elaborazione digitale della ricerca nel database di soggetti precedentemente fotosegnalati, in ogni caso «ferma restando l’esigenza dell’intervento dell’operatore per verificare l’attendibilità dei risultati prodotti dal sistema automatizzato»[31].

Pertanto, secondo il Garante, l’impiego del software «costituisce non un nuovo trattamento di dati personali, (…), bensì un nuova modalità di trattamento di dati biometrici, che dovrà essere effettuata nel rispetto delle regole previste dalla normativa rilevante in materia di tutela dei dati personali»[32]. In particolare, nel provvedimento si specifica che, in conformità all’articolo 7 d.lgs. 51/2018, l’impiego di dati personali risulta già previsto e disciplinato da diverse fonti normative e, nello specifico, quelle individuate nel Decreto del Ministro dell’Interno del 24.5.2017. Quest’ultimo ha ad oggetto i diversi trattamenti di dati personali eseguiti dal Centro elaborazione dati del Dipartimento di pubblica sicurezza o da forze di polizia, effettuati con strumenti elettronici, in attuazione dell’art. 53, comma 3, del d.lgs. 196/2003. In particolare, la scheda n. 19 ha ad oggetto il trattamento dei dati personali e identificativi acquisiti dai soggetti sottoposti a fotosegnalamento, correlati su base dattiloscopica tramite il sistema A.F.I.S. allocato presso il Servizio polizia scientifica della Direzione centrale anticrimine della Polizia di Stato. Vengono a tal proposito menzionati l’art. 4 TULPS e l’art. 7 del relativo regolamento di esecuzione, l’art. 349 c.p.p., l’art. 11 del d.l. 59/1978 e l’art. 5 del d.l. 286/1998. Pertanto, il Garante ha ritenuto sufficiente la base normativa già esistente per A.F.I.S. per autorizzare l’attività di trattamento.

I paletti del Garante sul SARI Real Time

A distanza di circa tre anni, l’Autorità Garante ha avuto modo di esprimersi anche sulla seconda modalità applicativa di SARI, ossia quella “Real time[33]. Posto quanto stabilito dall’articolo 23 del d.lgs. 51/2018, con riferimento alla documentazione prodotta dal Ministero avente ad oggetto la descrizione dei trattamenti nonché la presunta normativa di riferimento indicata all’interno della valutazione d’impatto del sistema, il Garante ha avuto modo di eseguire diverse riflessioni. In primo luogo, l’articolo 1 TULPS disciplina in generale le funzioni dell’Autorità di pubblica sicurezza, senza operare alcun riferimento al trattamento di dati biometrici. Parimenti, gli articoli 134 comma 4, 234, 266 e 431 comma 1, lett. b) c.p.p. – aventi ad oggetto la documentazione degli atti per riproduzione audiovisiva, l’acquisizione di documenti mediante fotografia ed altri mezzi e l’intercettazione di flussi di comunicazioni telematiche o tra presenti mediante dispositivi elettronici portatili – non possono costituire una pertinente base giuridica per il trattamento di dati biometrici finalizzato all’identificazione dell’individuo in modalità “live”.

Ancora, gli artt. 55, 348, 354 e 370 c.p.p., concernenti le funzioni di polizia giudiziaria aventi ad oggetto la tutela delle fonti di prova e degli accertamenti su luoghi o persone, di iniziativa o su delega dell’Autorità giudiziaria, nulla dicono circa il trattamento dei dati biometrici. Infine, il d.P.R. 15.1.2018, n. 15, recante la disciplina del trattamento dei dati effettuato per le finalità di polizia include altresì l’impiego dei dati attraverso i sistemi di videosorveglianza e di ripresa fotografica, audio e video, «sistemi ontologicamente diversi da quelli dei dati biometrici»[34].

Alla luce di quanto precede, pertanto, secondo il Garante, le suddette disposizioni non risultano idonee per il soddisfacimento dei requisiti di specificità richiesti dall’articolo 23 per il trattamento dei dati biometrici per finalità di sicurezza pubblica e repressione dei reati; articolo che, tra l’altro, «non può considerarsi, di per sé, fonte normativa idonea a legittimarli, in quanto è diretto a specificare le condizioni che ne consentono l’effettuazione, tra le quali individua, appunto, la sussistenza di una norma del diritto dell’Unione o dello Stato nazionale che lo autorizzi specificamente». Fino a qualche mese fa, dunque, non era possibile individuare alcuna base giuridica, ai sensi dell’articolo 7 d.lgs. 51/2018, che fosse idonea a consentire il trattamento dei dati biometrici per le finalità in argomento. La modalità applicativa “Real time” di SARI, secondo il Garante, determinerebbe un’attività di sistematica sorveglianza di massa che consente di generare e trattare, senza alcuna specifica normativa di riferimento, le rappresentazioni digitali dei volti di una moltitudine di consociati al fine di confrontarli con quelle dei soggetti inseriti nella watch-list di riferimento[35].

Per tale ragione, contestualmente al rilascio da parte del Garante privacy del provvedimento su SARI Real time, veniva presentato un disegno di legge volto a sospendere l’impiego delle tecnologie in questione[36]. Nel preambolo, in particolare, si specificava che, considerato come risultino «ormai molti i comuni italiani, compresi i grandi capoluoghi, che progettano di trasformare i loro sistemi di videosorveglianza in veri e propri sistemi di riconoscimento facciale» e, pur «in assenza di un quadro normativo che consenta di uniformare le condizioni per l’utilizzo dei dati biometrici da parte degli enti territoriali, in particolare per le funzioni di polizia giudiziaria riservate alla polizia locale», il disegno di legge proponeva di introdurre una «moratoria dell’utilizzo dei sistemi di riconoscimento facciale nei luoghi pubblici o aperti al pubblico […] fino a quando non sarà adottata una normativa che assicuri il pieno rispetto dei diritti costituzionali dei cittadini, conformemente alle indicazioni delle autorità nazionali ed europee per la protezione dei dati personali». Oltre a ciò, l’articolo 1 del d.d.l. stabiliva l’effettiva sospensione dell’installazione e dell’utilizzazione di impianti di videosorveglianza con sistemi di riconoscimento facciale, «fino all’entrata in vigore di una disciplina legislativa della materia e comunque non oltre il 31 dicembre 2021».

Il decreto capienze

Tale iniziativa si è effettivamente tradotta in legge, con l’emanazione del d.l. 139/2021 (cd. decreto “Capienze”) convertito con modificazioni dalla l. 205/2021[37]. Tuttavia, non si comprende ancora la ratio dell’intervento, alla luce di quanto stabilito in sede di disegno di legge. Più nel dettaglio, l’art. 1, co. 9 dispone che «l’installazione e l’utilizzazione di impianti di videosorveglianza con sistemi di riconoscimento facciale operanti attraverso l’uso dei dati biometrici di cui all’articolo 4, numero 14), del citato regolamento (UE) 2016/679 in luoghi pubblici o aperti al pubblico, da parte delle autorità pubbliche o di soggetti privati, sono sospese fino all’entrata in vigore di una disciplina legislativa della materia e comunque non oltre il 31 dicembre 2023»[38]. Tale moratoria però non si applica «ai trattamenti effettuati dalle autorità competenti a fini di prevenzione e repressione dei reati o di esecuzione di sanzioni penali di cui al decreto legislativo 18 maggio 2018, n. 51, in presenza, salvo che si tratti di trattamenti effettuati dall’autorità giudiziaria nell’esercizio delle funzioni giurisdizionali nonché di quelle giudiziarie del pubblico ministero, di parere favorevole del Garante reso ai sensi dell’articolo 24, comma 1, lettera b), del medesimo decreto legislativo n. 51 del 2018»[39].

In primo luogo, occorre riflettere sul fatto che nella nozione di “autorità competenti a fini di prevenzione e repressione dei reati” rientrano altresì le pubbliche amministrazioni[40]. Questo significa che i Comuni, o meglio, ciascun ente pubblico incaricato di esercitare poteri a fini di prevenzione e indagine è autorizzato a servirsi di impianti di videosorveglianza dotati di software di riconoscimento facciale senza dover attendere la predisposizione di una compiuta disciplina legislativa in materia.

La ratio di tale disposizione risulta completamente antitetica rispetto alla preoccupazione manifestata nel preambolo del d.d.l. e, nel contesto sovranazionale, nella proposta di regolamento europeo. Infatti, con l’entrata in vigore del d.l. 139/2021, gli enti territoriali, in seguito ad un parere favorevole del Garante, potranno installare i loro sistemi di videosorveglianza dotati di tecnologie di riconoscimento facciale e attivarli in spazi aperti al pubblico. Ma allora quale può essere l’effettiva intentio legis, se l’assenza di uno specifico quadro normativo di riferimento era proprio la ragione per la quale si era proposta una sospensione dell’impiego di tali tools?

In secondo luogo, dalla stessa moratoria si esclude l’impiego dei software di riconoscimento facciale da parte dell’autorità giudiziaria nell’esercizio delle funzioni giurisdizionali e del pubblico ministero[41]. Il testo normativo, non distinguendo fra modalità “in tempo reale” e “in differita”, tra modalità identificative o di categorizzazione, sembra riferirsi ad un ricorso indiscriminato del software a fini giudiziari che genera non poca confusione. Questo potrebbe senz’altro comportare diverse problematiche interpretative e applicative se si considera che la normativa codicistica non contiene alcun dettaglio o specifica tecnica per l’impiego di tali strumenti. In che modo allora sarà possibile assicurare l’ingresso degli elementi di prova raccolti attraverso l’impiego di questi strumenti? Tramite quale istituto del codice di procedura penale si potrà garantire il rispetto dei diritti fondamentali in capo all’indagato/imputato? Per definizione, l’attivazione del meccanismo di riconoscimento in “real time” non rientrerebbe ontologicamente né tra gli accertamenti tecnici ripetibili né, considerate le sue caratteristiche intrinseche, tra gli accertamenti tecnici irripetibili.

Conclusioni

L’Italia, con l’introduzione di tale base normativa, oltre ai dubbi interpretativi circa la sua effettiva applicabilità, sembra essersi posta in netta antitesi rispetto all’approccio proposto dalla Commissione europea e all’orientamento ormai consolidato della Corte di giustizia che, a fronte di intrusioni significative nella sfera privata e dei dati personali degli individui, sostiene fermamente la necessità di introdurre specifiche «norme di legge, di modo che l’acquisizione per fini di prevenzione o di accertamento processuale sia circoscritta al ricorrere di reati sufficientemente gravi» e «contenuta nella misura strettamente necessaria per conseguire il fine perseguito», ma anche «accompagnata dal controllo preventivo di un giudice o di una entità amministrativa indipendente»[42].

Non resta che attendere che il Regolamento europeo sull’intelligenza artificiale concluda il suo iter di negoziazione ed entri in vigore, al fine di valutare le ormai necessarie modifiche alla neo introdotta normativa italiana, che dovranno essere (direttamente o indirettamente, data la forza dirompente del regolamento UE) apportate per assicurare la conformità rispetto al quadro giuridico sovranazionale.

Note

  1. Cfr. https://www.nytimes.com/interactive/2021/03/18/magazine/facial-recognition-clearview-ai.html. Cfr. anche I. Neroni Rezende, Facial recognition in police hands: Assessing the “Clearview case” from a European perspective, in NJECL, 2020, vol. 11, n. 3, pp. 375 e ss., secondo la quale «Clearview now combines its technology with a database of three billion images published on internet», p. 376. Ne parla anche J. Della Torre, Novità dal Regno Unito: il riconoscimento facciale supera il vaglio della High Court of Justice (ma raccoglie le critiche del Garante Privacy D’Oltremanica), in www.sistempenale.it, 28.3.2020, p. 5, Z. A. Khan, A. Rizvi, AI based facial recognition technology and criminal justice: issues and challenges, in Turkish Journal of Computer and Mathematics Education, Vol.12, No.14, 2021, pp. 3384-3392 e J. Scipione, M. Lo Monaco, Has the horse bolted? Dealing with legal and practical challenges of facial recognition, in Media Laws, 18.1.2022.Di recente il Garante per la protezione dei dati personali ha imposto una sanzione di 20 milioni di euro alla società americana Clearview AI, per aver posto in essere un vero e proprio monitoraggio biometrico di persone che si trovano nel territorio italiano. Cfr. Garante per la protezione dei dati personali, Riconoscimento facciale: il Garante privacy sanziona Clearview per 20 milioni di euro. Vietato l’uso dei dati biometrici e il monitoraggio degli italiani, 9.3.2022, comunicato stampa reperibile all’indirizzo https://www.gpdp.it/home/docweb/-/docweb-display/docweb/9751323.
  2. Cfr. Parlamento Europeo, Risoluzione del Parlamento europeo del 12 febbraio 2019 su una politica industriale europea globale in materia di robotica e intelligenza artificiale (2018/2088(INI)), 12.2.2019, p. 13, reperibile all’indirizzo https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX%3A52019IP0081.
  3. Cfr. European Commission, White Paper on Artificial Intelligence: a European approach to excellence and trust, 19.2.2020, pp. 20 e ss., reperibile all’indirizzo https://ec.europa.eu/info/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_it.
  4. Cfr. European Data Protection Supervisor, Opinion 4/2020 on the European Commission’s White Paper on Artificial Intelligence – A European approach to excellence and trust, 29.6.2020, p. 66, reperibile all’indirizzo https://edps.europa.eu/sites/edp/files/publication/20-06-19_opinion_ai_white_paper_en.pdf.
  5. Cfr. European Parliament, Resolution “Artificial intelligence: questions of interpretation and application of international law”, P9_TA (2021)0009, 20.1.2021, p. 56, reperibile all’indirizzo https://www.europarl.europa.eu/doceo/document/TA-9-2021-0009_EN.html.
  6. Cfr. European Commission, Regulation of the European Parliament and of the Council laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain union legislative acts, COM(2021) 206 final, reperibile all’indirizzo https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-approach-artificial-intelligence.
  7. Cfr. il considerando n. 18, COM(2021) 206.
  8. Cfr. l’art. 5 par. 1, lett. d) e il considerando n. 33, allegato III(1) (a), 2021/0106(COD).
  9. Nel GDPR, i dati biometrici rientrano nelle categorie particolari di dati personali disciplinati nell’art. 9, il cui testo è reperibile all’indirizzo ùhttps://eur-lex.europa.eu/legal-content/IT/TXT/?uri=celex%3A32016R0679
  10. Cfr. l’art. 5 par. 1, lett. d), 2021/0106(COD).
  11. Cfr. la decisione quadro del Consiglio 2002/584/GAI, del 13 giugno 2002, relativa al mandato d’arresto europeo e alle procedure di consegna tra Stati membri (G.U. L. 190 del 18.7.2002, p. 1).
  12. In questo senso v. EDri, EU’s AI law needs major changes to prevent discrimination and mass surveillance, 2021, reperibile all’indirizzo https://edri.org/our-work/eus-ai-law-needs-major-changes-to-prevent-discrimination-and-mass-surveillance/
  13. Cfr. il considerando n. 22, 2021/0106(COD).
  14. Si ricorda che il Consiglio dell’Unione europea nel primo testo di modifica delle disposizioni contenute nella Proposta diffuso di recente, ha aggiunto nell’art. 5 par. 1 lett. d) il riferimento ad altri soggetti che agiscono per conto delle autorità di contrasto o collaborano con esse, estendendo in tal modo a costoro il divieto d’impiego dei sistemi di riconoscimento “in tempo reale” in spazi aperti al pubblico. Inoltre, il Consiglio dell’Unione europea ha proposto che ognuna delle tre eccezioni sia descritta in modo più esaustivo e restrittivo, tenendo conto di alcuni elementi come, per esempio, la natura della situazione che ha dato origine alla richiesta, le conseguenze dell’uso per i diritti e le libertà di tutte le persone interessate e le garanzie e le condizioni previste per il suo utilizzo. Cfr. Council of the European Union, Presidency compromise text, 2021/0106(COD), 29.11.2021, reperibile all’indirizzo https://media-exp1.licdn.com/dms/document/C4D1FAQGuV1FL6qMDIA/feedshare-document-pdf-analyzed
  15. Cfr. il considerando n. 33, 2021/0106(COD).
  16. Cfr. il considerando n. 27, 2021/0106(COD).
  17. Cfr. il considerando n. 24, 2021/0106(COD).
  18. Cfr. l’art. 61, 2021/0106(COD).
  19. Cfr. l’art. 3 par. 35, 2021/0106(COD).
  20. Cfr. C. Kind, Containing the canary in the AI coalmine – the EU’s efforts to regulate biometrics, Ada Lovelace Institute, 2021, reperibile all’indirizzo https://www.adalovelaceinstitute.org/blog/canary-ai-coalmine-eu-regulate-biometrics/
  21. Cfr. European Data Protection Supervisor, Artificial Intelligence Act: a welcomed initiative, but ban on remote biometric identification in public space is necessary, 2021, reperibile all’indirizzo https://edps.europa.eu/press-publications/press-news/press-releases/2021/artificial-intelligence-act-welcomed-initiative_en
  22. Cfr. EDPB – EDPS, Joint opinion 5/2021, 18.6.2021, p. 3, reperibile all’indirizzo https://edps.europa.eu/system/files/2021-06/2021-06-18-edpb-edps_joint_opinion_ai_regulation_en.pdf
  23. Cfr. EDPB – EDPS, Joint opinion 5/2021, 18.6.2021, cit., p. 12.
  24. Cfr. EDPB – EDPS, Joint opinion 5/2021, 18.6.2021, cit., p. 12.
  25. Cfr. Parlamento europeo, Risoluzione del Parlamento europeo del 6 ottobre 2021 sull’intelligenza artificiale nel diritto penale e il suo utilizzo da parte delle autorità di polizia e giudiziarie in ambito penale (2020/2016(INI)), reperibile all’indirizzo https://www.europarl.europa.eu/doceo/document/TA-9-2021-0405_IT.html.
  26. «(…) a meno che non siano usate strettamente ai fini dell’identificazione delle vittime di reati». Cfr. Parlamento europeo, Risoluzione del Parlamento europeo del 6 ottobre 2021 sull’intelligenza artificiale nel diritto penale e il suo utilizzo da parte delle autorità di polizia e giudiziarie in ambito penale, cit., v. il § n. 27.
  27. V. MINISTERO DELL’INTERNO – DIPARTIMENTO DI PUBBLICA SICUREZZA, Capitolato tecnico, Procedura volta alla fornitura della soluzione integrata per il sistema automatico di riconoscimento immagini (S.a.r.i.) lotto n° 1, reperibile all’indirizzo https://www.poliziadistato.it/statics/06/20160627-ctsari%2D%2D4-.pdf.
  28. Da qui in avanti A.F.I.S.
  29. Cfr. Ministero dell’Interno, Comunicato del 19.9.2018, reperibile all’indirizzo https://www.interno.gov.it/it/notizie/sistema-automatico-riconoscimento-immagini-futuro-diventa-realta
  30. Cfr. Garante per la protezione dei dati personali, Sistema automatico di ricerca dell’identità di un volto, n. 440/2018, 26.7.2018, reperibile all’indirizzo https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9040256
  31. Cfr. Garante per la protezione dei dati personali, Sistema automatico di ricerca dell’identità di un volto, n. 440/2018, cit.
  32. Cfr. Garante per la protezione dei dati personali, Sistema automatico di ricerca dell’identità di un volto, n. 440/2018, cit.
  33. Cfr. Garante per la protezione dei dati personali, Parere sul sistema Sari Real Time – 25 marzo 2021, n. 127, reperibile all’indirizzo https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9575877
  34. Il parere del Garante rimanda al considerando n. 51 del regolamento (UE) 2016/679. In ogni caso è bene ricordare che, nonostante la modalità “Real-time” del software abbia ricevuto un parere negativo del Garante, l’art. 160-bis, inserito nel d.lgs. 30 giugno 2003, n. 196 (c.d. “codice della privacy”) dal d.lgs. 10 agosto 2018, n. 101, prevede che «la validità, l’efficacia e l’utilizzabilità nel procedimento giudiziario di atti, documenti e provvedimenti basati sul trattamento di dati personali non conforme a disposizioni di legge o di Regolamento restano disciplinate dalle pertinenti disposizioni processuali».
  35. Cfr. altresì Garante per la protezione dei dati personali, Parere sulla valutazione di impatto del Ministerodell’Interno relativo ad un sistema di telecamere indossabili (body-cam), da Reparti mobili della Polizia di Stato,per la documentazione audio e video di situazioni critiche per l’ordine e la sicurezza, in occasione di eventi o

    manifestazioni pubbliche, 22.7.2021, p. 7, reperibile all’indirizzo https://www.asaps.it/downloads/files/Garante%20Privacy%20provvedimento%20bodycam%20Polizia%20di%20Stato%20luglio%202021.pdf, con cui si è escluso che i

    dispositivi in questione possano essere impiegati in funzione di «identificazione univoca […] o autenticazione di

    una persona fisica (facial recognition)».

  36. Cfr. il d.d.l. AC 3009, “Sospensione dell’installazione e dell’utilizzazione di impianti di videosorveglianza con sistemi di riconoscimento facciale operanti attraverso l’uso di dati biometrici in luoghi pubblici o aperti al pubblico”, 12.4.2021, reperibile all’indirizzo http://documenti.camera.it/leg18/pdl/pdf/leg.18.pdl.camera.3009.18PDL0137680.pdf.
  37. Cfr. il d.l. 139/2021 convertito con modificazioni dalla l. 205/2021 “Disposizioni urgenti per l’accesso alle attivita’ culturali, sportive e ricreative, nonché’ per l’organizzazione di pubbliche amministrazioni e in materia di protezione dei dati personali” reperibile all’indirizzo https://www.gazzettaufficiale.it/eli/id/2021/10/08/21G00153/sg.
  38. Cfr. l’art. 9 co. 11 d.l. 139/2021.
  39. Cfr. l’art. 9 co. 12 d.l. 139/2021.
  40. Cfr. la definizione di “autorità competente” contenuta nell’art. 3 par. 7 LED che include «a) qualsiasi autorità pubblica competente in materia di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro e la prevenzione di minacce alla sicurezza pubblica; o b) qualsiasi altro organismo o entità incaricati dal diritto dello Stato membro di esercitare l’autorità pubblica e i poteri pubblici a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia e la prevenzione di minacce alla sicurezza pubblica».
  41. Cfr. l’art. 9 co. 12 d.l. 139/2021.
  42. T. Rafaraci, Verso una law of evidence dei dati, in Dir. pen. proc., 2021, p. 853.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4