Riconoscimento facciale

Arresti ingiusti causa intelligenza artificiale: la lezione di Detroit contro il rischio abusi



Indirizzo copiato

La città di Detroit ha raggiunto un accordo con Robert Williams, arrestato ingiustamente per un errore del software di riconoscimento facciale. Il caso ha suscitato un dibattito nazionale sui rischi e le discriminazioni legati a questa tecnologia. L’accordo prevede nuove regole per il suo utilizzo da parte della polizia

Pubblicato il 9 lug 2024

Barbara Calderini

Legal Specialist – Data Protection Officer



riconoscimento facciale

La città di Detroit ha raggiunto un accordo per risolvere la denuncia di Robert Williams, un uomo afroamericano di Farmington Hills, Michigan, ingiustamente arrestato a causa di un errore del software di riconoscimento facciale (FRT). Il caso ha attirato l’attenzione di testate come il Free Press, il New York Times e il Washington Post.

Wrongfully Arrested Because of Flawed Face Recognition Technology

L’arresto di Robert Williams

L’incidente risale al gennaio 2020, quando Williams fu arrestato e accusato di una rapina in un negozio di orologi. La polizia aveva identificato Williams come sospettato utilizzando il software FRT, confrontando la sua immagine con un video della rapina. Tuttavia, al momento del crimine, Williams si trovava a casa sua.

Dopo aver trascorso 30 ore in carcere, Williams è stato rilasciato e le accuse sono state ritirate. L’uomo ha quindi citato in giudizio la città di Detroit, sostenendo che il suo arresto era illegale e che l’utilizzo del software FRT violava i suoi diritti.

“Il 9 gennaio 2020, gli agenti del Dipartimento di Polizia di Detroit (DPD) mi hanno arrestato sul prato di casa mia a Farmington Hills, Michigan, di fronte a mia moglie e alle mie due figlie piccole, per un crimine con cui non avevo nulla a che fare. Si sono rifiutati di dirmi il motivo e ho dovuto passare la notte dormendo su una fredda panchina di cemento in una cella di prigione sovraffollata e sporca prima di scoprire finalmente che ero stato falsamente accusato di aver rubato orologi firmati da una boutique di Detroit. Durante l’interrogatorio, due detective si sono lasciati sfuggire che ero stato arrestato in base a un’identificazione errata tramite riconoscimento facciale, una tecnologia che ha dimostrato di essere razzista e difettosa, soprattutto se utilizzata in condizioni reali, come nel caso di riprese di sicurezza sfocate. Questa settimana abbiamo finalmente raggiunto un accordo nella mia causa per arresto ingiusto contro la città di Detroit, che garantisce che ciò che mi è successo non accadrà più. La tecnologia di riconoscimento facciale ha accesso a enormi database con milioni di foto, tra cui, al momento del mio arresto, un database di 49 milioni di fotografie comprendenti ogni foto della patente di guida del Michigan risalente ad anni fa. Chiunque abbia una patente di guida può essere incluso in questi database. La tecnologia li scansiona tutti alla ricerca di volti simili e sputa fuori alcuni possibili sospettati. La polizia ti direbbe che usa queste informazioni solo come “pista” e poi conduce indagini significative, ma la mia esperienza personale e quella di altre persone arrestate ingiustamente in tutto il paese confuta tale affermazione.” Questo il racconto pubblicato nella testata giornalistica TIME.

La causa di Williams contro la città di Detroit

Robert Williams, rappresentato dall’ACLU del Michigan e dalla Civil Rights Litigation Initiative dell’Università del Michigan, ha intentato la causa contro la città di Detroit il 13 aprile 2021 presso la Corte distrettuale degli Stati Uniti per il distretto orientale del Michigan. La denuncia era rivolta anche al capo del Dipartimento di Polizia di Detroit (DPD) e a un singolo detective del DPD. Williams sosteneva che l’arresto e la detenzione ingiusti violassero i suoi diritti secondo il Quarto Emendamento e la legge del Michigan.

Nella denuncia, si accusava la città di non aver adeguatamente formato gli ufficiali del DPD sulle carenze del software di riconoscimento facciale (FRT), che presenta ancora alti tassi di errore nell’identificazione delle persone di colore, violando così lo statuto sulla discriminazione razziale del Michigan. Williams ha quindi richiesto danni, il rimborso delle spese legali e provvedimenti dichiarativi e ingiuntivi.

Il caso è stato assegnato al giudice distrettuale Laurie J. Michelson e al giudice istruttore David R. Grand.

Recentemente, la causa ha avuto un epilogo inaspettato: Williams ha raggiunto un accordo transattivo con la città di Detroit, il DPD e l’agente coinvolto, che prevede l’implementazione di nuove regole per l’utilizzo del software di riconoscimento facciale da parte della polizia.

L’accordo sul riconoscimento facciale: nuove regole per il dipartimento di polizia di Detroit

L’accordo raggiunto , elogiato come un passo fondamentale per la giustizia razziale e la tutela dei diritti civili, mira ad affrontare i pregiudizi insiti nella tecnologia di riconoscimento facciale e a ridurre al minimo il rischio di arresti ingiusti, in particolare per le persone di colore.

Molti vedono questo accordo come un modello da seguire per altri dipartimenti di polizia in tutto il paese.

Tra questi Nathan Freed Wessler, vicedirettore dell’ACLU Speech, Privacy, and Technology Project: “I molteplici arresti ingiusti da parte della polizia a Detroit e in altre città americane dimostrano che la tecnologia di riconoscimento facciale è fondamentalmente pericolosa nelle mani delle forze dell’ordine. Il modo più efficace per evitare abusi è che i legislatori vietino l’uso della tecnologia da parte della polizia, come hanno fatto i consigli comunali da Boston a Minneapolis a San Francisco. Ma nelle giurisdizioni in cui i legislatori devono ancora agire, i dipartimenti di polizia dovrebbero guardare alle nuove politiche di Detroit, che mitigheranno seriamente il rischio di ulteriori arresti falsi e danni correlati.”

I dettami per regolamentare in modo rigoroso l’uso del riconoscimento facciale

All’interno dell’accordo vengono definiti una serie di dettami specificatamente destinati a regolamentare in modo più rigoroso l’uso del riconoscimento facciale da parte del DPD:

  • Il divieto di arresti basati esclusivamente sul riconoscimento facciale: la polizia non potrà più arrestare persone basandosi unicamente sui risultati del riconoscimento facciale o su foto segnaletiche ottenute tramite questa tecnologia.
  • La necessità di prove indipendenti: la polizia non potrà utilizzare il riconoscimento facciale per generare piste investigative a meno che non vi siano prove indipendenti e affidabili che colleghino un sospettato a un crimine.
  • La formazione obbligatoria sul riconoscimento facciale: tutti gli agenti dovranno ricevere una formazione sui pericoli e sui limiti del riconoscimento facciale, con particolare attenzione ai suoi pregiudizi razziali.
  • Gli audit sull’utilizzo del riconoscimento facciale: saranno condotti audit su tutti i casi dal 2017 in cui la tecnologia di riconoscimento facciale è stata utilizzata per ottenere un mandato di arresto.
  • Il monitoraggio da parte della corte: un tribunale federale supervisionerà l’attuazione dell’accordo per quattro anni.

Oltre alle nuove policy, l’accordo[1] prevede anche che la città di Detroit risarcisca Williams per i danni subiti e copra le sue spese legali.

L’accordo: un passo avanti ma non del tutto risolutivo

Tuttavia, sebbene l’accordo raggiunto tra Robert Julian-Borchak Williams e il Dipartimento di Polizia di Detroit (DPD) possa rappresentare un passo avanti nella governance dell’uso del riconoscimento facciale da parte delle forze dell’ordine, lo stesso non può ritenersi risolutivo rispetto alle richieste di giustizia e di tutela dei diritti civili. E dunque nonostante i passi avanti, l’accordo rimane oggetto di critiche.

Le limitazioni imposte all’utilizzo di questa tecnologia, pur positive, si rivelano infatti insufficienti. L’obbligo di prove indipendenti a sostegno di una corrispondenza del riconoscimento facciale prima di una verifica fotografica è un buon inizio, ma non elimina il rischio di arresti ingiusti basati su errori algoritmici, come dimostrato dall’esperienza di Williams stesso.

La discriminazione razziale intrinseca nei sistemi di riconoscimento facciale

L’accordo non affronta inoltre la questione cruciale della discriminazione razziale intrinseca nei sistemi di riconoscimento facciale. La formazione obbligatoria per gli agenti sui limiti e le imprecisioni della tecnologia, seppur necessaria, non basta a contrastare i pregiudizi algoritmici che identificano erroneamente i neri a tassi sproporzionatamente più alti rispetto ai bianchi.

Le parole di Williams, che definisce l’esperienza vissuta come “un brutto film da cui non poteva uscire”, sottolineano l’impatto psicologico devastante che tali errori possono avere sulla vita delle persone. La sua lotta per la giustizia e la sua instancabile campagna di sensibilizzazione hanno contribuito a questo primo passo avanti, ma la strada per sradicare l’utilizzo discriminatorio e pericoloso del riconoscimento facciale da parte delle forze dell’ordine è ancora lunga.

Serve dunque un’azione più decisa e lungimirante.

Le ulteriori misure necessarie per evitare abusi del riconoscimento facciale

Sono necessarie ulteriori misure per regolamentare l’uso di questa tecnologia, come moratorie o divieti totali, specie in certi ambiti, primo fra tutti quello della prevenzione e repressione dei crimini, almeno fino a quando non verranno garantite garanzie concrete contro le discriminazioni e gli abusi. La priorità dovrebbe essere data a metodi investigativi più equi ed efficaci, che rispettino i diritti e le libertà civili di tutti.

Le principali preoccupazioni legate all’uso del riconoscimento facciale

Malgrado le nuove regole, persistono forti critiche all’utilizzo del riconoscimento facciale da parte delle forze dell’ordine. Alcune delle principali preoccupazioni includono:

  • Difetti intrinseci della tecnologia: il riconoscimento facciale è intrinsecamente soggetto a errori, soprattutto con immagini di bassa qualità o quando i soggetti non sono di fronte alla telecamera.
  • Discriminazione razziale: studi hanno dimostrato che il software di riconoscimento facciale ha tassi di errore più alti per le persone di colore e le donne.
  • Minaccia alla privacy: la raccolta e l’utilizzo di dati biometrici come i volti delle persone sollevano seri problemi di privacy e sorveglianza di massa.

La diffusione del riconoscimento facciale: un bilancio critico tra successi e fallimenti

Negli ultimi 15 anni, la tecnologia di riconoscimento facciale è diventata sempre più diffusa, alimentata da un mix di interessi economici e da esigenze investigative. Da un lato, le aziende di intelligenza artificiale hanno visto un’opportunità di profitto nel vendere questa tecnologia alle forze dell’ordine, convincendole della sua efficacia nella lotta al crimine. Dall’altro, la polizia ha accolto con favore lo strumento, sperando che potesse migliorare l’efficienza delle loro operazioni e assicurare la giustizia ai colpevoli.

Un’indagine del 2021 di BuzzFeed News ha rilevato che il software di riconoscimento facciale è stato utilizzato o testato da dipendenti di quasi duemila agenzie pubbliche negli Stati Uniti. Tra le aziende più note nel settore figura Clearview AI, che vanta un database di miliardi di immagini estratte da internet. Secondo l’azienda, il suo software ha un’accuratezza del “100% in tutti i gruppi demografici”, un’affermazione che però viene messa in dubbio da molti esperti.

Casi di successo dell’uso del riconoscimento facciale

Nonostante le critiche, la tecnologia di riconoscimento facciale ha giocato un ruolo importante in alcuni casi di successo, come l’identificazione di diversi rivoltosi che assaltarono il Campidoglio degli Stati Uniti il 6 gennaio 2021.

Un altro esempio emblematico è descritto nel libro “Your Face Belongs to Us” di Kashmir Hill, dove si racconta di un agente del Dipartimento della Sicurezza Interna che, nel 2019, utilizzò la piattaforma di Clearview AI per identificare un sospettato di abusi sessuali su minori. Grazie a un’immagine sfocata, l’agente riuscì a ottenere una foto del sospettato in posa a una fiera di bodybuilding a Las Vegas. Questa informazione portò all’arresto di Andres Rafael Viola, successivamente condannato a trentacinque anni di carcere.

Scopi discutibili

I critici temono invece che il riconoscimento facciale possa essere impiegato per scopi discutibili, come la sorveglianza di manifestanti pacifici o la violazione della privacy dei cittadini. Inoltre, permangono dubbi sulla sua reale affidabilità.

Come tutti i sistemi di intelligenza artificiale, il software di riconoscimento facciale si fonda su algoritmi che analizzano grandi quantità di dati per individuare schemi e fare previsioni. Questi algoritmi, spesso basati su reti neurali artificiali, vengono addestrati su set di dati di immagini di volti. Proprio come Chat GPT viene addestrato su testi, il software di riconoscimento facciale costruisce modelli statistici che assegnano un punteggio di affidabilità per determinare la somiglianza tra due immagini.

Tuttavia, anche un punteggio di affidabilità del 99% non garantisce una corrispondenza certa. Le aziende produttrici di questo software riconoscono che il punteggio rappresenta solo la “migliore ipotesi algoritmica”, la cui accuratezza può variare in base alla qualità dell’immagine di partenza, influenzata da fattori come l’illuminazione e l’angolazione della telecamera. Inoltre, se il set di dati utilizzato per addestrare l’algoritmo non è equilibrato (ad esempio, con più volti maschili che femminili o più volti bianchi che neri), il modello potrebbe funzionare peggio per alcuni gruppi demografici.

La storia di Williams non è un caso isolato

Da quando il dipartimento di polizia di Detroit ha iniziato a utilizzare il riconoscimento facciale, almeno altri due uomini di colore e una donna nella città sono stati arrestati ingiustamente, con conseguenze devastanti sulla loro vita, tra cui la perdita di opportunità lavorative e la rottura di un matrimonio. Uno di questi uomini ha addirittura preso in considerazione l’idea di accettare un patteggiamento per un crimine che non ha commesso.

Il caso di Michael Oliver

Nel maggio 2019, Michael Oliver, un uomo di 25 anni di Detroit, è stato accusato ingiustamente di furto aggravato. Utilizzando la tecnologia di riconoscimento facciale, la polizia lo ha identificato come il sospettato che aveva rubato un cellulare da un’auto. Tuttavia, l’identificazione era errata e Oliver è stato successivamente scagionato da tutte le accuse.

Tutto ciò non prima di aver trascorso numerose ore in carcere. Durante questo periodo, Oliver ha sempre negato qualsiasi coinvolgimento nel crimine. Un’ulteriore indagine ha poi rivelato che l’immagine utilizzata per il riconoscimento facciale fosse di scarsa qualità e non avrebbe potuto consentire un’identificazione accurata.

La signora Woodruff è la settima vittima a rendere nota una falsa accusa basata sul software di riconoscimento facciale.

In tutti i casi segnalati, le persone coinvolte erano individui di colore e la signora Porcha Woodruff è la prima donna ad aver subito questa ingiustizia. Alla polizia di Detroit sono imputabili tre dei sette casi, fino ad oggi noti, in cui il riconoscimento facciale ha portato a un arresto ingiusto (gli altri sono avvenuti in Louisiana, New Jersey, Maryland e Texas).

L’alto tasso di errore dell’algoritmo di riconoscimento facciale di Detroit

L’inquietante realtà è che l’algoritmo di riconoscimento facciale di Detroit, come molti altri, ha un tasso di errore significativo. Nonostante ciò, la tecnologia viene ancora ampiamente utilizzata in tutto il dipartimento e come intuibile nella maggior parte dei casi a discapito di persone di colore.

A Detroit e in molte altre città, questa tecnologia continua dunque a replicare, rafforzare e mascherare i pregiudizi umani su una scala piuttosto ampia. Algoritmi di intelligenza artificiale e tecnologie permeano il sistema giudiziario penale, spesso con scarsa supervisione.

Non ultimo proprio il capo della polizia di Detroit, James E. White, ha ribadito fermamente la validità del software di riconoscimento facciale, attribuendo gli arresti ingiusti a “errori umani”. Ha affermato che i suoi ufficiali si sono affidati troppo alle indicazioni fornite dalla tecnologia, indicando che è stato il loro giudizio a essere difettoso, non quello della macchina.

I fatti però raccontano una storia diversa.

L’impatto del riconoscimento facciale: cosa dicono gli studi e i rapporti

L’ascesa del riconoscimento facciale basato sull’intelligenza artificiale (IA) nel settore pubblico e privato ha sin da subito alimentato un acceso dibattito sulle sue potenziali conseguenze negative, in particolare in termini di discriminazione e ingiustizia razziale.

Le critiche maggiori riguardano la violazione delle libertà civili, in particolare il potenziale abuso, la tendenza agli errori e l’uso improprio specie in determinati ambiti.

Indubbiamente, sta crescendo la consapevolezza sui rischi dell’intelligenza artificiale, man mano che gli usi dannosi o potenzialmente tali si moltiplicano, sostenuti o meglio non ostacolati dalla perdurante assenza di un adeguato quadro regolatorio globale e condiviso. Al tempo stesso permane un certo cauto ottimismo sulla possibilità che l’umanità riesca a rendere “responsabile” ed “etica” l’AI.

Ed è intorno a questa dialettica che da tempo si muovono i numerosi dibattiti scientifici e le analisi relative allo sviluppo delle applicazioni di riconoscimento biometrico.

L’uso del riconoscimento facciale nelle indagini

Da una parte la tecnologia di riconoscimento facciale sta diventando sempre più diffusa tra le forze dell’ordine, alimentata dalla promessa di migliorare l’efficienza delle indagini e degli arresti. Funzionando attraverso il confronto di immagini catturate da telecamere di sorveglianza, foto segnaletiche o internet con un database di volti digitali, il FRT promette di identificare rapidamente i sospettati e facilitare la risoluzione dei crimini.

Le questioni etiche

Dall’altra, l’implementazione di questi sistemi avanzati non è priva di critiche e preoccupazioni. Accanto ai potenziali benefici si insinuano i dubbi e i timori portati dalle importanti questioni etiche, sociali e legali che richiedono un’analisi attenta e un dibattito pubblico aperto.

Numerosi documenti[2] tra cui quelli pubblicati dall’ AI Now Institute, affermano e comprovano che il campo è “costruito su basi marcatamente instabili”. Diversi studi hanno già abbondantemente dimostrato che i sistemi di riconoscimento facciale hanno un tasso di errore maggiore per alcuni gruppi demografici, in particolare persone di colore, donne e altri gruppi minoritari.

Lo studio NIST

Tra gli studi, di particolare rilevanza, c’è quello del National Institute of Standards and Technology, il laboratorio federale noto come NIST che sviluppa standard per le nuove tecnologie, il quale, confermando precedenti analisi di ricercatori giunte alle medesime conclusioni, ha esaminato algoritmi che provenivano da una serie di importanti aziende tecnologiche e appaltatori di sorveglianza, tra cui Idemia (sviluppatore del sistema di Pinellas in Florida), Intel, Microsoft, Panasonic, SenseTime e Vigilant Solutions (assente dalla lista Amazon che sviluppa il Rekognition), riportando “prove empiriche” sul fatto che la maggior parte degli algoritmi di riconoscimento facciale presentano “differenziali demografici” che possono peggiorare la loro precisione in base all’età di una persona, genere o razza.

Gli asiatici e gli afroamericani avevano fino a cento volte più probabilità di essere identificati erroneamente rispetto agli uomini bianchi, a seconda del particolare algoritmo e del tipo di ricerca. I nativi americani avevano il più alto tasso di falsi positivi di tutte le etnie, secondo lo studio del NIST.

Gli algoritmi rivelano alti tassi di errore specialmente per le ricerche “one-to-one” (utilizzate per sbloccare un telefono o la verifica di un passaporto) ma non ne erano immuni neppure quelle “one-to-many”, utilizzato dalla polizia per cercare il volto di un sospetto a partire dal set delle foto della patente di guida di asiatici, afroamericani, nativi americani e isole del Pacifico.

Va detto che dal rapporto emerge anche come alcuni specifici algoritmi abbiano prodotto pochi e trascurabili errori, ma la disparità di precisione tra i diversi sistemi rimane comunque enorme.

Il team NIST ha testato i sistemi con circa 18 milioni di foto di oltre 8 milioni di persone, tutte provenienti da banche dati gestite dal Dipartimento di Stato, dal Dipartimento per la sicurezza nazionale e dall’FBI.

L’impatto del riconoscime nto biometrico sulle libertà civili

La mancanza di diversità nei dataset di training, la scarsa trasparenza e la difficile individuazione delle responsabilità sono altri aspetti critici di fondamentale rilevanza che affliggono i sistemi di rilevamento biometrico. Come anche l’impatto sulle libertà civili: l’utilizzo diffuso del riconoscimento facciale esercita un impatto significativo sui diritti e le libertà fondamentali degli individui, con il rischio di creare una società di sorveglianza in cui ogni mossa viene monitorata e registrata e la portata dei diritti compressa senza adeguate garanzie di legittimità.

Oltre alla ricerca accademica, molteplici esempi di identificazioni errate di cittadini neri negli Stati Uniti, insieme a commenti correlati da parte di gruppi per i diritti umani e le libertà civili, suggeriscono che tutte queste preoccupazioni si stanno traducendo in vere e proprie ingiustizie nel mondo reale, convalidando al tempo stesso i timori sull’uso della tecnologia di riconoscimento facciale a fini di polizia in assenza di meccanismi di governance adeguati.

Certo è che errori clamorosi come quello di Robert Williams, a cui si uniscono i casi di Michael Oliver e Porcha Woodruff, tutti arrestati per errore a causa di un software di riconoscimento facciale fallace, non possono più essere tollerati.

È peraltro importante ribadire il fatto per cui i casi denunciati rappresentano solo una piccola frazione delle ricerche di riconoscimento facciale effettuate dalla polizia di Detroit. Non è infatti possibile sapere quante altre circostanze simili potrebbero essere nel frattempo intervenute, non denunciate o ancora sconosciute.

Secondo i resoconti settimanali del Dipartimento di polizia di Detroit, gli agenti effettuano in media 125 ricerche di riconoscimento facciale all’anno e quasi esclusivamente queste hanno a che fare risultanze su individui afroamericani.

Scettici della tecnologia sottolineano che tanto basti per rendere evidenti i bias del software e i pericoli che rappresenta per persone innocenti, soprattutto quando si tratta di persone di colore.

I difensori della tecnologia invece ne evidenziano i progressi minimizzando gli errori. Sostengono che la qualità degli algoritmi è in costante miglioramento e che i migliori sistemi non presentano più squilibri demografici significativi. Inoltre, rimarcano che, sebbene alcuni casi di arresti ingiusti legati al riconoscimento facciale abbiano attirato l’attenzione dei media, questi rappresentano una minima porzione rispetto alle milioni di ricerche condotte dalla polizia. Tuttavia, questa visione ottimistica ignora diverse criticità cruciali, prima fra tutte la scarsa informazione sugli errori. È infatti impossibile determinare il numero reale di identificazioni errate perché la tecnologia è ancora scarsamente regolamentata e il suo utilizzo da parte delle forze dell’ordine spesso non viene condiviso con il pubblico o con gli imputati. Nonostante le promesse di efficienza e sicurezza, il riconoscimento facciale presenta ancora rischi significativi che non possono essere ignorati.

La perdurante mancanza di trasparenza, la regolamentazione frammentata e l’utilizzo incauto di questa tecnologia come prova primaria accrescono le preoccupazioni per l’equità, la privacy e i diritti individuali.

L’utilizzo del riconoscimento facciale da parte delle forze dell’ordine è dunque più che mai un tema alquanto controverso.

Un sondaggio del Pew Research Center condotto dal 3 al 17 giugno 2019 rivela che, nonostante le preoccupazioni, la maggioranza degli americani (56%) sostiene l’utilizzo del riconoscimento facciale da parte delle forze dell’ordine.

In modo particolare uno studio, condotto nel novembre 2021 sempre dal Pew Research Center sugli adulti statunitensi, ha rilevato che le opinioni degli afroamericani sull’utilizzo del riconoscimento facciale da parte della polizia sono più sfumate rispetto alla loro generale critica verso le forze dell’ordine e il sistema giudiziario penale.

Scetticismo in alcuni casi e apertura in altri casi. L’atteggiamento degli afroamericani verso il riconoscimento facciale non è univoco. La sfiducia diffusa verso le forze dell’ordine influenza le loro percezioni di questa tecnologia. La preoccupazione centrale è l’equità e l’accuratezza del sistema.


La posizione della comunità afroamericana verso il riconoscimento biometrico

Numerose ricerche evidenziano infatti la maggiore fallibilità di questi algoritmi nel riconoscere correttamente i volti di persone afroamericane, rispetto a quelli di individui bianchi.

Tuttavia, è importante sottolineare che all’interno della comunità afroamericana non vi è una posizione unanime. Ricerche mirate condotte all’interno di questo gruppo sociale hanno mostrato una certa variabilità di opinioni su questioni specifiche relative al riconoscimento facciale.

Per comprendere a fondo questo panorama complesso, è necessario approfondire le diverse sfumature di pensiero: i timori legati all’equità e all’accuratezza del sistema, uniti alla sfiducia verso le autorità, alimentano il dubbio e il respingimento da parte di alcuni afroamericani.

Altri, invece, vedono nel riconoscimento facciale un potenziale strumento per migliorare la sicurezza pubblica, a patto che sia implementato in modo equo e trasparente.

Le ricerche condotte all’interno della comunità afroamericana hanno evidenziato come le opinioni su specifiche questioni relative al riconoscimento facciale possano variare in base a fattori come l’età, il genere, il background socioeconomico e le esperienze personali.

In generale però gli afroamericani sono significativamente più pessimisti rispetto agli americani bianchi o ispanici riguardo all’impatto del riconoscimento facciale sull’equità della polizia.

Solo il 22% degli afroamericani si rivela moderatamente ottimista, contro il 40% degli ispanici e il 36% dei bianchi. Il 29% degli afroamericani teme infatti che il riconoscimento facciale aumenti la disuguaglianza nella giustizia penale.

Le esperienze storiche di ingiustizia e brutalità poliziesca fomentano di certo questo scetticismo, così come la percezione di un potenziale utilizzo improprio del riconoscimento facciale per rafforzare la profilazione razziale e la discriminazione e il potenziale impatto del riconoscimento facciale sulla libertà di espressione e sulla privacy individuale.

Il dibattito sul riconoscimento facciale e l’impatto dell’AI Act dell’UE

L’utilizzo del riconoscimento facciale, pur offrendo potenziali benefici in termini di sicurezza, solleva preoccupazioni crescenti per le sue implicazioni sui diritti umani. La mancanza di trasparenza da parte di governi e aziende sull’effettivo impiego di questa tecnologia ostacola una valutazione completa dei suoi impatti.

Inoltre, la persistente imprecisione del riconoscimento facciale, seppur migliorata nel tempo, rappresenta un rischio concreto per i diritti fondamentali. Errori di sistema possono portare a conseguenze negative, come la violazione della libertà personale, di movimento, di espressione e di associazione.

L’idea che gli algoritmi di riconoscimento facciale siano neutrali e imparziali è erronea. Le loro implementazioni e i dati su cui si basano possono riflettere e amplificare bias sociali già esistenti, alimentando discriminazioni e disuguaglianze.

La perdurante assenza di un quadro normativo adeguato, negli USA come altrove, aumenta il rischio di una sorveglianza pervasiva da parte di forze dell’ordine e aziende private.

La legge sull’IA dell’ UE potrebbe rappresentare un primo passo positivo, ma è necessario un impegno più ampio e concreto.

Anche in Europa infatti il quadro giuridico che regola il suo utilizzo rimane sfuggente, creando un clima di incertezza e potenziali rischi. Ciò a maggior ragione per quanto riguarda l’uso dell’IA da parte delle forze dell’ordine e le potenziali implicazioni per la sorveglianza di massa.

Questa ambiguità non deriva tanto da un vuoto normativo, ma piuttosto dalla frammentazione delle regole in un mosaico di leggi primarie e secondarie dell’Unione Europea, norme del Consiglio d’Europa e legislazioni nazionali. La recente introduzione dell’AI Act pur tentando di fare chiarezza, ha invero aggiunto ulteriore complessità a un panorama già intricato.

Il regolamento esclude le attività di sicurezza nazionale dal suo campo di applicazione, il che significa che le forze dell’ordine potrebbero potenzialmente utilizzare tecnologie di IA intrusive per motivi di sicurezza nazionale, anche se tali tecnologie sarebbero vietate in altri contesti.

Questa esclusione potrebbe essere interpretata in modo ampio e consentire l’uso di IA senza adeguate garanzie. Sebbene l’AI Act vieti alcune pratiche specifiche, come l’identificazione biometrica in tempo reale (RBI) in spazi pubblici da parte delle forze dell’ordine, tuttavia, esistono diverse eccezioni a questo divieto, che potrebbero consentire l’utilizzo di RBI in svariate circostanze, come la ricerca di persone scomparse o la prevenzione di minacce terroristiche.

Il regolamento stabilisce anche garanzie per gli usi autorizzati di RBI, come la richiesta di autorizzazione preventiva e la valutazione dell’impatto sui diritti fondamentali, ma l’identificazione post-biometrica è ancora soggetta a minori restrizioni rispetto all’RBI e può essere utilizzata dalle forze dell’ordine per indagare su reati senza la necessità di un’autorizzazione preventiva.

Ancora, l‘AI Act vieta l’utilizzo di sistemi di IA per la profilazione criminale basata esclusivamente su caratteristiche personali, ma consente tale utilizzo se è “a supporto di una valutazione umana del coinvolgimento di una persona in un’attività criminale”.

Insomma malgrado il quadro giuridico europeo sull’IA classifichi diversi tipi di tecnologie utilizzati dalle forze dell’ordine come ad alto rischio, sottoponendoli a obblighi più rigorosi, cionondimeno persistono i rischi di interpretazioni ambigue e utilizzo di RBI in contesti non intenzionati.

Non ultimo anche l’AI Act pare non affrontare adeguatamente il problema dei potenziali pregiudizi algoritmici nei sistemi di riconoscimento facciale utilizzati dalle forze dell’ordine.

Conclusioni

La vera sfida consisterà dunque nel definire una governance del digitale globale, responsabile e condivisa, basata su sistemi regolatori efficaci e frutto di un autentico dialogo multistakeholder.

Tale governance deve concentrarsi sui rischi del trattamento delle informazioni, non solo individuali ma anche anonimizzate e aggregate. La discriminazione di gruppi e minoranze, alimentata da una gestione irresponsabile di queste informazioni, rappresenta un’inaccettabile minaccia per la coesione sociale e i valori democratici.

Le scelte che faremo oggi sul riconoscimento facciale definiranno il volto della nostra società futura. Dobbiamo interrogarci su quale tipo di società vogliamo costruire, su quali valori vogliamo basarla e su come vogliamo gestire le nuove tecnologie.

Casi concreti di come il riconoscimento facciale sia stato utilizzato in modo improprio o abbia avuto conseguenze negative per i diritti umani; voci di esperti e attivisti che si battono per un uso responsabile del riconoscimento facciale; le tante riflessioni sul futuro del riconoscimento facciale e sulle implicazioni etiche, sociali e legali del suo sviluppo e utilizzo,rendono chiaro quanto il tema del riconoscimento facciale sia complesso e controverso, e non esiste ancora oggi una risposta facile o univoca.

Sono le regole del gioco che faranno la differenza.

La nostra società da grande cosa vuole essere? Cosa vuole fare? Qual è il nostro progetto al di là di farci un po’ gli affari nostri?

Note


[1]Il testo dell’accordo transattivo è disponibile qui.

[2] L’uso di sistemi di intelligenza artificiale ad alto rischio solleva problematiche sono state ampiamente discusse nella letteratura recente, con studiosi del diritto che hanno esaminato l’impiego del riconoscimento facciale (FRT) nelle indagini di polizia (Purshouse e Campbell, 2019; Fussey et al., 2021) e nella sorveglianza (Williams, 2020). È stato dimostrato che l’uso dell’FRT compromette il diritto alla privacy (Lochner, 2013; Ringrose, 2019; Selinger e Hartzog, 2019; Wright, 2019; Barrett, 2020; Berle, 2020), il diritto all’uguaglianza e alla non discriminazione (O’Neil, 2016; Noble, 2018; Benjamin, 2019; Human Rights Council, 2020) e il diritto alla libertà di espressione, causando una “spirale di silenzio” (Stoycheff, 2016; Lynch, 2020). Inoltre, la ricerca empirica ha dimostrato che l’FRT presenta pregiudizi contro le minoranze, essendo meno accurato per i volti delle persone tra i 18 e i 30 anni, in particolare donne e persone di colore (Klare et al., 2012). Questi risultati sono coerenti con studi che evidenziano l’impatto sproporzionato dell’FRT sui gruppi minoritari e le significative violazioni della privacy (Buolamwini e Gebru, 2018; Grother et al., 2019; Shore, 2022). Inoltre, la ricerca basata su sondaggi ha dimostrato che l’accettazione del riconoscimento facciale varia a seconda del contesto politico e dei fattori socio-demografici. È emerso che “la tecnologia di riconoscimento facciale gode della massima accettazione in Cina, mentre l’accettazione è più bassa in Germania, con Regno Unito e Stati Uniti in una posizione intermedia (Kostka et al., 2021).” Recentemente, alcuni studiosi hanno proposto il divieto di questa tecnologia, mentre altri hanno suggerito un approccio calibrato basato sulla fiducia per il suo utilizzo.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4