Di fronte a un utilizzo sempre più massiccio di sistemi di riconoscimento facciale in contesti diversi e sempre più sensibili, dalle implicazioni ancora non prevedibili rispetto alla tutela e all’esercizio dei nostri diritti fondamentali di fronte alla necessità di repressione dei reati, diventa interessante esaminare come si ponga la proposta di Regolamento della Commissione europea sull’intelligenza artificiale e quali siano gli spazi e i limiti previsti al legislatore pubblico per l’utilizzo di questi sistemi.
Il rischio che si profila all’orizzonte è quello di un’eccessiva discrezionalità in mano agli Stati membri a discapito dei cittadini.
Sorveglianza di massa con l’IA, serve approccio rigoroso: i paletti del Parlamento Ue
Il bilanciamento tra sicurezza, controllo e privacy
L’impiego di sistemi sempre più sofisticati di riconoscimento biometrico da parte delle Istituzioni pubbliche ha trovato recentemente forte avvallo ed incremento, in ragione soprattutto della dilagante pandemia di Covid-19 e la conseguente necessità di contenimento del contagio; non solo, tali sistemi stanno trovando largo e nuovo utilizzo – per scopi che si possono definire macabri – anche nelle nuove logiche belliche derivanti conflitto russo-ucraino.
È notizia recente, a riguardo, che l’esercito ucraino abbia iniziato a servirsi in molte operazioni militari di strumenti di riconoscimento facciale per identificare i cadaveri dei soldati russi[1].
Sennonché, sebbene formalmente funzionali al contenimento dei rischi dell’epoca attuale, i diversi sistemi di riconoscimento biometrico presentano in sostanza numerosi profili che si pongono come potenzialmente lesivi delle fondamentali prerogative alla riservatezza del cittadino: si parla sempre più spesso, a tal proposito, di scenari assimilabili ad una sorveglianza di massa[2].
Il bilanciamento tra sicurezza, controllo e prerogative alla riservatezza del cittadino si rivela fortemente complesso in questo scenario in cui la tekné si impone così pervicacemente anche nella dimensione pubblica, spesso giustificata da esigenze di sicurezza, le quali, tuttavia, prevaricano talvolta in modo tracotante rispetto al diritto alla riservatezza del privato.
Sebbene l’utilizzo di strumenti tecnologici potenzialmente lesivi della riservatezza del privato possa essere giustificato in vista della repressione di comportamenti penalmente rilevanti – in ossequio, in ogni caso, ai limiti posti dalle disposizioni previste dal codice di procedura in materia – altrettanto non si può dire in sede di gestione di altre esigenze pubbliche, come il contenimento sanitario o la maggiore necessità di sicurezza per le nuove politiche belliche. In tal senso, si è pertanto assistito ad un mutamento di prospettiva dell’azione dello Stato che estende il proprio margine di azione non solo in ottica propriamente repressiva, ma anche preventiva e cautelare – tale logica, tuttavia, deve ricevere i debiti limiti affinché non pregiudichi i diritti fondamentali in gioco.
Riconoscimento biometrico
L’AIDC – Automatic Identification and Capture, o Sistema di riconoscimento biometrico, è un sistema in grado di identificare in modo preciso un soggetto, attraverso l’analisi di una o più caratteristiche fisiologiche e/o comportamentali di quest’ultimo. Tali sistemi funzionano mediante il confronto dei nuovi dati con dati precedentemente acquisiti e conservati nel database del sistema, tramite algoritmi e sensori preposti all’acquisizione dei dati in input.
Tale forma di riconoscimento, come strumento identificativo, è fortemente utilizzato e diffuso come chiave di accesso ad informazioni, dispositivi elettronici o ad alcune applicazioni contenenti dati sensibili; d’altronde, esso si rivela estremamente più efficace a livello di sicurezza rispetto ai classici sistemi ID fondati solo sulla scelta di password da parte dell’utente, i quali spesso si rivelano insufficienti rispetto ai pervicaci cyber attacchi che connotano soprattutto questo momento storico.
Non solo, i sistemi di riconoscimento biometrico trovano largo utilizzo e diffusione nella sfera pubblica come mezzi di controllo della collettività per ragioni di pubblica sicurezza. È pur vero, d’altronde, che i primitivi sistemi di riconoscimento biometrico sono nati proprio nella logica di controllo della sicurezza pubblica: essi sono stati sviluppati nei laboratori del carcere di Parigi alla fine del XIX secolo dove Alphonse Bertillon, fotografo di servizio presso la prefettura di Parigi, il quale, accanto alle loro foto segnaletiche frontali e laterali, iniziò ad annotare meticolosamente i caratteri fisici dei detenuti, in modo tale da avere uno strumento di riconoscimento sicuro degli stessi.
Questo metodo serviva a risolvere i numerosi casi in cui i recidivi tentavano di presentarsi sotto false identità.
Tale sistema, chiamato antropometria giudiziaria, si diffuse velocemente in Europa e fu largamente adoperato sino alla scoperta di un altro efficace strumento di riconoscimento biometrico utilizzato ancora oggi, ossia l’impronta digitale[4].
Addio anonimato negli spazi pubblici?
Il rischio che si dipana, difatti, è che tacitamente si stia avvallando un contesto di sorveglianza collettiva sempre più razionale e filtrante attraverso strumenti tecnologici sofisticati che puntano all’imposizione di un potere non più fisico ma psicologico. Così i sistemi di controllo lucidamente descritti da Michelle Foucault nei suoi saggi all’interno di carceri, caserme e istituti psichiatrici del XX secolo, nel XXI sembrano travalicare le mura istituzionali e divenire propri anche degli spazi pubblici[3].
Per quanto funzionale ad esigenze collettive conclamate e del tutto evidenti, difatti, la sorveglianza di massa utilizzata dai Governi europei in questo periodo, oltre a riecheggiare scenari orwelliani, rappresenta un evidente impatto sui diritti fondamentali dell’uomo: anche solo il sospetto di essere controllati dal Big Brother mina radicalmente la libertà di autodeterminazione del singolo, avendo un significativo impatto sulla spontaneità del suo comportamento.
Il potenziale coinvolgimento di questi dispositivi fa sorgere, così, un interrogativo rilevante per il giurista: esiste un diritto all’anonimato negli spazi pubblici? O meglio, è fondata l’aspettativa di intimità del privato negli spazi pubblici o aperti al pubblico? Le logiche emergenziali considerate possono giustificare il limite a tale ragionevole aspettativa?
Non si possono dunque minimizzare le implicazioni future dei provvedimenti che concernono l’utilizzo diffuso di strumenti di riconoscimento biometrico adottati nel corso delle emergenze che si stanno susseguendo. In questo senso l’espressa previsione di una specifica legge che regoli l’utilizzo di questa strumentazione tecnologica permetterebbe un sindacato in merito alla proporzionalità dei mezzi utilizzati rispetto allo scopo perseguito, oltre che l’individuazione di un nucleo di tutela inscindibile e inderogabile dei diritti del cittadino.
I sistemi di riconoscimento biometrico remoto “in tempo reale”
La proposta di regolamento sull’intelligenza artificiale – pubblicata per la prima volta il 21 aprile 2021 – si pone come obiettivo principale quello di porre nuovamente al centro l’uomo nel rapporto con la tecnologia, riportando i sistemi di intelligenza artificiale ad essere strumento a effettivo beneficio dell’essere umano e rispettoso dei suoi diritti e libertà[5].
A seguito di una definizione volutamente ampia di intelligenza artificiale e delle sue caratteristiche, nel Titolo II vengono indicati in modo analitico i sistemi ritenuti pratiche pregiudizievoli per i diritti e le libertà degli individui. Tra questi, alla lett. d) dell’art. 5 della proposta vengono indicati come vietati in modo esplicito «l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico a fini di attività di contrasto», salvo nel caso in cui ciò non sia strettamente necessario per la ricerca di vittime di un reato compresi i bambini scomparsi, la prevenzione di una minaccia specifica – come, ad esempio, un attacco terroristico – ovvero al fine di individuare, localizzare, identificare o perseguire un criminale o un sospettato punibile con una pena di almeno 3 anni per alcuni reati.
L’articolo in oggetto, nella seconda parte, stabilisce che il riconoscimento facciale potrà essere utilizzato esclusivamente a seguito di un’attenta valutazione circa la gravità effettiva della situazione, soppesando attentamente i rischi nel caso in cui non venisse usato[6]. Oltre a ciò, il suo utilizzo dovrà connotarsi per ponderazione, provvisorietà e limitatezza temporale e spaziale. Infine, sarà necessaria la previa autorizzazione del giudice o da un’autorità amministrativa indipendente dello Stato membro in cui deve avvenire l’uso; nelle ipotesi di estrema urgenza, invece, l’autorizzazione potrà avvenire successivamente[7]. In ogni caso, le suddette autorità saranno tenute a verificare che l’utilizzo soddisfi i requisiti richiesti.
Ad ogni modo, la scelta «di prevedere la possibilità di autorizzare in tutto o in parte l’uso di sistemi di identificazione biometrica remota ‘in tempi reali’» viene rimessa esplicitamente ai singoli Stati, i quali, in base alle proprie concrete esigenze saranno tenuti a valutarne l’utilizzo per motivi di sicurezza pubblica[8].
Tale spazio di manovra rimesso alla libera scelta dei singoli Stati, se da un lato può trovare ragionevole giustificazione nel fatto la sicurezza interna risulta una prerogativa interna dei singoli Stati membri, dall’altra parte rischia di creare forti dissonanze tra le politiche dei diversi membri dell’Unione, dal momento che oggi è ancora utopistico ritenere che vi sia piena coincidenza nella tutela dei diritti dei cittadini contro possibili forme di controllo in tutti i territori europei.
Conclusioni
Se da una parte, in conclusione, la proposta sull’intelligenza artificiale sembra voler arginare, almeno in linea teorica, l’operatività di tali sistemi fortemente intrusivi nella sfera privata dei cittadini e in grado di creare pervasive forme di sorveglianza di massa, dall’altra parte, in concreto, la discrezionalità rimessa ai singoli Stati, rischia di causare forti dissonanze tra i medesimi, a seconda delle politiche di sicurezza pubbliche adottate che avvallino o meno l’utilizzo di questi strumenti.
La proposta – a ben vedere – sebbene indichi chiaramente le cause giustificatrici dell’utilizzo di tali sistemi, nella sostanza rischia di riscontrare provvedimenti fortemente divergenti nel bilanciamento tra diritto alla riservatezza privata e interessi di sicurezza pubblica, poiché poggiati su presupposti differenti. Tale disallineamento rischia di essere acuito fortemente dalla differente posizione assunta dagli Stati, in primis, nei confronti della pandemia e, in secondo luogo, nella reazione al conflitto bellico. È sempre più evidente, difatti, che al di là degli intenti comuni, nel concreto i singoli Stati hanno adottato risoluzioni differenti sia nei mezzi che nell’intensità rispetto ai due succitati eventi straordinari che ad oggi in concomitanza osteggiano la salute e sicurezza pubblica.
In virtù di ciò, la misura e la pervasività dell’utilizzo di strumenti di riconoscimento biometrico rischiano, in concreto, di essere fortemente differenti nei singoli stati, a pregiudizio soprattutto dei cittadini in cui viene prediletta una strategia pubblica di deterrenza maggiormente stringente.
Il confine tra sicurezza e controllo – in conclusione – è labile e la sfida di un bilanciato antropocentrismo tecnologico ancora aperta.
Note
- Cfr. V. Berra, L’Esercito ucraino usa il riconoscimento facciale sui cadaveri dei soldati russi e poi contatta le loro famiglie, in «https://www.open.online/2022/04/15/guerra-in-ucraina-riconoscimento-facciale-soldati-russi/», 15 aprile 2022. A riguardo, Mykhailo Fedorov, vice primo ministro dell’Ucraina e ministro della trasformazione digitale, ha confermato che l’Ucraina sta utilizzando un software di riconoscimento facciale, chiamato Clearview, per trovare gli account sui social media dei soldati russi deceduti, in modo tale da identificarli e consentire così alle autorità di informare amici e familiari. Mosca sembrerebbe non comunicare difatti il decesso dei propri soldati alle famiglie russe. La campagna di riconoscimento avrebbe dunque come obiettivo quello di demistificare la campagna politica russa di ‘disarmo’ dell’Ucraina, sensibilizzando la popolazione russa rispetto a quanto veramente sta accadendo. ↑
- Si legga A. Angiletta, Riconoscimento facciale e AI: il Nuovo report del Parlamento europeo, in Diritto al Digitale, 6 ottobre 2021, «https://dirittoaldigitale.com/2021/10/06/riconoscimento-facciale/». ↑
- Si fa riferimento, in particolare, ai due saggi dell’autore francese intitolati ‘sorvegliare e punire’ e il ‘potere psichiatrico’ editi, rispettivamente, nel — ↑
- Per maggiori dettagli si veda: Riconoscimento biometrico: cos’è e a cosa serve, in «https://focus.namirial.it/riconoscimento-biometrico/», 27 settembre 2021. ↑
- Si veda, in questa rivista, M. R. Carbone, Norme europee sull’intelligenza artificiale, un testo di compromesso, — ↑
- Per un commento A. Angiletta, Riconoscimento facciale e AI: il Nuovo report del Parlamento europeo, in Diritto al Digitale, 6 ottobre 2021, «https://dirittoaldigitale.com/2021/10/06/riconoscimento-facciale/». ↑
- Per maggiori dettagli, M. Maratona – Z. Sichi, Il riconoscimento biometrico nel nuovo Regolamento europeo sull’AI, in AI4Business, 29 giugno 2021, «https://www.ai4business.it/intelligenza-artificiale/il-riconoscimento-biometrico-nel-nuovo-regolamento-europeo-sullai/». ↑
- Per un commento A. Angiletta, Riconoscimento facciale e AI: il Nuovo report del Parlamento europeo, in Diritto al Digitale, 6 ottobre 2021, «https://dirittoaldigitale.com/2021/10/06/riconoscimento-facciale/». ↑