Nonostante l’Autorità Garante per il trattamento dei dati personali abbia dato parere negativo all’utilizzo dell’intelligenza artificiale per il riconoscimento facciale direttamente al Ministero dell’Interno nell’aprile 2021, alcune città italiane (tra cui Torino e Udine) stanno valutando l’inserimento di un software di questo tipo nelle telecamere che impiegano per la videosorveglianza. Ma solo il 10 settembre il Garante ha ribadito, in un parere sull’impiego delle body cam per le forze dell’ordine, che il riconoscimento facciale va escluso.
La polizia italiana usa l’AI di Clearview? Sarebbe gravissimo, ecco perché
Como, Torino e Udine: riconoscimento facciale in città?
L’esigenza di sicurezza è sempre più sentita dai cittadini e gli amministratori locali cercano, per quanto di loro competenza – e nei limiti delle possibilità di ogni comune – di offrire soluzioni per la tutela dell’ordine e del decoro urbano.
Spesso, però, i mezzi impiegati possono presentare, a loro volta, rischi significativi.
L’impiego dell’intelligenza artificiale per il riconoscimento facciale rientra nelle ipotesi in cui i rischi sono esponenziali: per semplificare, un’apertura senza seri limiti al riconoscimento facciale può portare a un modello di società più simile a quello cinese che a quello pensato da Voltaire.
In Italia il riconoscimento facciale è stato “bloccato” – almeno – in due (in realtà tre) momenti distinti: nel 2020, quando il Comune di Como ha provato a introdurlo, e nel 2021, quando è stato il Ministero dell’Interno a volerlo utilizzare.
Il Garante per la protezione dei dati personali è stato chiarissimo e cristallino nelle motivazioni: mancanza di una base normativa idonea.
Allo stato, peraltro, si ipotizza addirittura l’introduzione di una legge (progetto di legge AC 3009) per sospendere fino alla fine del 2021 qualunque impiego dell’AI di riconoscimento facciale nei Comuni fino alla regolamentazione con legge ordinaria della materia.
In questo contesto, alcuni Comuni italiani provano, comunque, a ipotizzare soluzioni basate sul riconoscimento facciale: Torino e Udine tra queste.
Nel marzo 2021, comunque, il Garante privacy ha dato parere negativo all’impiego del sistema SARI Real Time, che avrebbe consentito alle telecamere delle forze dell’ordine di confrontare i volti di chiunque fosse passato in determinate aree con un database di oltre 10.000 visi “schedati”.
Il Garante ha affermato apertamente l’illiceità del trattamento, generalizzato e indistinto e, ancora una volta, privo di una base giuridica idonea, da valutare secondo i parametri previsti dal Decreto legislativo 51/2018, di recepimento della Direttiva UE 16/680.
I rischi dell’impiego a livello locale
Il trattamento dei dati biometrici mediante Ai non va assolutamente sottovalutato.
A di là delle implicazioni etiche, la questioni pratiche e normative sono molteplici e serie.
In primo luogo, c’è un tema di data retention: sia i mezzi con cui i dati vengono raccolti che quelli di conservazione devono essere impostati con un sistema di cybersecurity estremamente complesso.
Tra tutti i rischi che si possono elencare, basti ricordare la fornitura di telecamere cinesi alle procure della Repubblica che possono inviare le immagini in Cina.
In secondo luogo, tempi e modi del trattamento devono essere definiti in modo rigorosissimo, sia a tutela dei cittadini che delle casse del Comune: una sanzione, in materia, può essere estremamente pesante.
Il rischio deve quindi essere valutato anche in termini di costi-benefici sotto questo aspetto.
Da ultimo, non vanno sottovalutati gli aspetti relativi all’accessibilità all’algoritmo di riconoscimento facciale per la tutela dei diritti degli interessati e il margine di errore che possono presentare: il riconoscimento facciale porta con sé l’ultima generazione di ipotesi di causa di errore giudiziario.
Body cam per le forze dell’ordine: consentita, ma senza riconoscimento facciale
Il Garante per la protezione dei dati ha reso due distinti pareri il 10 settembre 2021 sull’impiego della body cam (su richiesta del Dipartimento per la pubblica sicurezza e dell’Arma dei Carabinieri.
Tre i rilievi più consistenti: il divieto di riconoscimento facciale, la cancellazione delle immagini dopo 6 mesi (by default) e l’impiego “discontinuo” e limitato a specifiche situazioni.
Il Garante ha infatti stabilito che “le videocamere indossabili in uso al personale dei reparti mobili incaricato potranno essere attivate solo in presenza di concrete e reali situazioni di pericolo di turbamento dell’ordine pubblico o di fatti di reato. Non è ammessa la registrazione continua delle immagini e tantomeno quella di episodi non critici. I dati raccolti riguardano audio, video e foto delle persone riprese, data, ora della registrazione e coordinate Gps, che una volta scaricati dalle videocamere sono disponibili, con diversi livelli di accessibilità e sicurezza, per le successive attività di accertamento”.
Facial recognition: per l’ONU e il Garante Ue sono a rischio i diritti umani
L’Alto Commissario ONU per i Diritti umani ha, recentemente, chiesto una moratoria internazionale “sulla vendita e l’uso dei sistemi di intelligenza artificiale che rappresentano un serio pericolo per i diritti umani”.
Su tutti, gli strumenti software ed hardware che impiegano l’intelligenza artificiale per il riconoscimento facciale.
In altri termini, allo stato, questi strumenti sono un rischio per la democrazia e per i diritti umani a livello internazionale e anche il Garante europeo per la tutela dei dati sta osservando il fenomeno con molta attenzione.
Conclusioni
Privacy e sicurezza sono valori che vanno, oggi più che mai, contemperati.
Le tecnologie all’avanguardia consentono, di fatto, di operare in maniera così invasiva da limitare quasi del tutto la libertà d’azione del singolo: basti pensare all’impiego del QRCode in Cina.
L’Unione europea, in questo, è obiettivamente sensibile alle derive autoritarie che possono derivare dal trattamento dei dati, ossia lo strumento di controllo sociale più impattante di sempre.
Il riconoscimento facciale per l’ordine pubblico, anche locale, è un esempio di questo fenomeno: va regolamentato e le opportunità dovranno essere contemperate coi rischi.
Oggi, probabilmente, l’impiego di questi strumenti sarebbe prematuro e troppo poco “consapevole”.