Il riconoscimento facciale viene a qualificarsi, secondo gli esperti, come una delle risoluzioni digitali che elargisce, a favore degli utenti, una forma di legittimazione “passiva” nei confronti di un’imputabilità illecita e di matrice razzista.
La buona notizia è che, a fronte dei numerosi episodi di “bad facial recognition”, l’opinione pubblica non sta a guardare e si moltiplicano le prese di posizione volte a scongiurare i pericoli derivanti dall’impiego di questi sistemi, che sfociano, in alcuni casi in disposizioni di legge che pongono limiti all’uso di sistemi di sorveglianza biometrica
Bad facial recognition made Usa
I sistemi di riconoscimento facciale vengono adoperati da gran parte delle forze dell’ordine statunitensi (dall’FBI al Department of Homeland Security) al fine di individuare i volti del crimine che si celano dietro l’ostruzionismo dell’anonimato.
La polarizzazione “investigativa” verso i vari sistemi di riconoscimento facciale desta numerose preoccupazioni, in quanto le operazioni di comparazione delle immagini dei volti (volto del sospettato e volto del ricercato) spesso sono “affette” da bias cognitivi che incentivano un’implicita proliferazione della discriminazione razziale.
Si assiste ad una colpevolizzazione assiomatica del soggetto (presunto criminale) sulla base di elementi probatori costituiti esclusivamente da features estetiche del viso (colore della pelle, diametro della bocca e larghezza del naso).
L’implicita categorizzazione delle etnie e la tacita omologazione di volti dalle caratteristiche comuni (soprattutto in relazione alle minoranze), sembra essere un’assidua prerogativa di tali dispositivi di intelligenza artificiale.
Il viso di Nijeer Parks, a causa della fallace valutazione operata da un sistema di riconoscimento facciale (utilizzato dal dipartimento di polizia del New Jersey) ha subito la dispotica ed erronea attribuzione delle caratteristiche biometriche di un volto non solo differente dal suo ma appartenente a quello di un criminale.
L’arresto del citato trentatreenne afroamericano (avvenuto nel febbraio 2019) accresce l’esacerbazione verso un sistema investigativo che confuta l’innocenza degli indagati sulla base di un piano accusatorio meramente digitale, privo di quei riferimenti probatori rinvenibili solo mediante l’intuito percettivo di un’investigazione umana (informazione/alibi/testimonianze).
L’imputazione del volto e non del soggetto sembra essere divenuta una prassi ricorrente nella previsione digitale del crimine statunitense.
L’ingiusta detenzione subita da Nijeer Parks per un errore di valutazione e identificazione da parte di un’analisi algoritmica, non è il primo caso di bad facial recognition.
Anche i nomi di Robert Williams e Michael Oliver (entrambi afroamericani, il primo arrestato nel gennaio 2020 e il secondo nel luglio 2019) sono noti alla cronaca; l’erronea corrispondenza digitale tra i loro volti e quelli dei soggetti ricercati li ha resi vittime innocenti di arresti pregiudizievoli che rappresentano nient’altro che il riflesso di una pratica investigativa superficiale.
Nonostante i rischi di un erroneo e precario giustizialismo digitale, i sistemi di riconoscimento facciale continuano ad essere acquistati e distribuiti in tutta l’America.
Almeno un quarto delle forze dell’ordine hanno accesso ai più disparati dispositivi di facial recognition, molti dei quali privi di un auditing da parte di enti pubblici indipendenti.
Nonostante il conclamato ricorso ai sistemi di facial recognition, gli organi di pubblica sicurezza si mostrano da sempre poco inclini a rendere noto il catalogo dei dati concernenti l’impiego di tali dispositivi.
A Jacksonville in Florida, ad esempio, le autorità si sono rifiutate di condividere i dettagli delle ricerche compiute mediante l’impiego di software di riconoscimento facciale in riferimento a un uomo che, da anni, professa la sua innocenza in relazione al reato ascrittogli (vendita di stupefacenti).
Le modalità operative degli algoritmi di riconoscimento facciale
Secondo lo studio del Center for Privacy & Technology della Georgetown University la metà dei volti americani, più di 117 milioni, sono archiviati in almeno uno dei numerosi database di riconoscimento facciale impiegati dalle forze dell’ordine.
La sensazione fatalistica di una risoluzione investigativa repentina e certa riguardo l’individuazione dei “volti criminali” privi d’identità è solo illusoria.
Prima, però, di comprendere le motivazioni per le quali i fenomeni di discriminazione razziale sussistono “anche” nei sistemi di riconoscimento facciale, risulta necessario soffermarsi sulle modalità operative di tale gruppo algoritmico.
Nel corso delle indagini, le forze dell’ordine al fine di identificare il volto criminale reperito mediante vari tools digitali (come sistemi di videosorveglianza, body- worn cameras) fanno ricorso ai sistemi di facial recognition.
I dispositivi citati, sulla base dell’immagine del volto fornitagli, cercano di rinvenire una corrispondenza tra la stessa e una o più foto contenute nel data set di raffronto (costituito a titolo esemplificativo da foto segnaletiche e foto di domande di sussidi per l’immigrazione ecc.).
Le fasi
Nello specifico, il processo di riconoscimento avviene secondo le seguenti fasi:
- Fase di pre-elaborazione: garantisce che l’immagine a cui sarà applicato il processo di riconoscimento soddisfi i requisiti standard stabiliti in precedenza (luminosità ottimale).
- Fase di face detection: opera la localizzazione dei volti delle persone presenti all’interno delle immagini. Una volta rilevato, il volto viene “normalizzato”, ridimensionato, ruotato e allineato in modo da disporre i volti, elaborati dall’algoritmo, nella stessa posizione di analisi.
- Fase di estrazione delle features: consiste nell’individuazione e rappresentazione in forma matematica delle caratteristiche fondamentali (occhi, bocca, capelli, naso e lineamenti).
- Fase di riconoscimento: sulla base della rappresentazione delle features in forma matematica è possibile operare un confronto tramite degli algoritmi tra i dati citati e le informazioni rilevate da un’altra immagine del soggetto che si vuole identificare.
Infine, l’algoritmo esamina le coppie di volti analizzati ed emette un punteggio numerico che riflette la somiglianza delle loro caratteristiche.
Il riconoscimento facciale è intrinsecamente probabilistico, non produce risposte binarie “sì” o “no”,
piuttosto identifica corrispondenze più o meno probabili.
Il sistema produrrà le prime foto simili o tutte le foto al di sopra di una certa soglia di somiglianza.
Le forze dell’ordine chiamano queste foto “le candidate” per il compimento delle indagini.
Una storia lunga 30 anni: gli studi
La convergenza delle risultanze degli studi scientifici degli ultimi 30 anni evidenzia una precisione differenziale delle prestazioni dei sistemi di facial recognition a seconda dei gruppi demografici di riferimento.
La funzionalità complessiva di tali software, infatti, risulta essere precaria ed approssimativa soprattutto in relazione alle corti demografiche minoritarie.
Uno studio del 2012 ha testato tre algoritmi commerciali di facial recognition operanti su un set di dati costituito principalmente dalle foto segnaletiche raccolte nella contea di Pinellas, in Florida.
Le società testate costituiscono i maggiori “suppliers of algorithms” del dipartimento di pubblica sicurezza del Maryland, della polizia di stato del Michigan, del Pennsylvania Justice Network e del San Diego Association of Governments (SANDAG).
Le analisi dei tre algoritmi dimostrano un tasso di accuratezza peggiore (che va dal 5% al 10%) per le operazioni eseguite sui gruppi demografici afroamericani.
Nello specifico uno degli algoritmi non ha identificato i soggetti caucasici l’11% delle volte, a fronte del 19% delle volte per i soggetti afroamericani.
Di fatto, Il tasso di errore quasi duplicato per il secondo gruppo demografico, determina un’implementazione del numero di arresti pregiudizievoli e razzisti a danno di vittime innocenti, la cui unica colpa è avere un colore della pelle differente da quello della maggioranza.
L’elaborato scientifico “Face Recognition Performance: Role of Demographic Information” afferma che la matrice delle distorsioni funzionali dei sistemi di riconoscimento facciale a danno dei gruppi minoritari dipenda, soprattutto, da un adattamento eccessivo ai dati di addestramento.
Secondo lo studio citato (condiviso e implementato dalla maggioranza degli esperti) l’accountability dei processi algoritmici volti alla valutazione e identificazione dei volti, deriva, in via prioritaria, dal set di dati di addestramento del sistema (training data con i quali l’algoritmo apprende canoni e criteri tramite i quali compiere le operazioni).
Ciò significa che se l’insieme dei dati utilizzati rappresenta principalmente il gruppo demografico caucasico (volti bianchi) l’algoritmo sarà più abile nell’identificare solo i volti appartenenti a quella categoria.
Un ulteriore fattore degenerativo per i sistemi di riconoscimento facciale nel caso di operazione di valutazione ed identificazione di volti appartenenti a soggetti afroamericani, consiste nella precaria attività di localizzazione delle features del viso da parte dell’algoritmo.
Difficoltà dovuta ad una presenza minore del contrasto di colori a cui il sistema è inevitabilmente esposto all’atto dell’analisi dei tratti e caratteristiche del volto analizzato.
Ulteriori valutazioni sono state fornite dall’elaborato scientifico “An Other-Race Effect for Face Recognition Algorithms”.
Lo studio condotto dimostrava che l’origine dell’algoritmo (la parte del mondo in cui è stato sviluppato e la composizione razziale del suo team di sviluppo) può notevolmente influenzare l’accuratezza dei suoi risultati.
Confrontando due algoritmi: un algoritmo occidentale (creato da una fusione di 8 algoritmi occidentali) e un algoritmo dell’Asia orientale (creato da una fusione di 5 algoritmi dell’Asia orientale) è stato scoperto che l’algoritmo occidentale ha eseguito in modo più accurato le operazioni sui volti caucasici e l’algoritmo dell’Asia orientale ha compiuto operazioni più soddisfacenti per i volti dell’Asia orientale.
L’introduzione dei deep convolutional neural network (costituiti da vari livelli di rete neurale) ha notevolmente migliorato le prestazioni dei sistemi di riconoscimento facciale. Il vantaggio fornito da tale tipologia algoritmica consiste nella riduzione dei requisiti di memoria da cui discende il coevo ridimensionamento numerico dei parametri di addestramento.
Nonostante ciò, nel 2016, l’elaborato scientifico “Face Verification Subject to Varying (Age, Ethnicity, and Gender) Demographics Using Deep Learning” mediante l’analisi di due algoritmi di riconoscimento facciale (pubblicamente disponibili), ha valutato l’accuratezza degli stessi utilizzando gruppi demografici mono e multi-classe tra cui: sesso (maschio / femmina), età (giovane, mezza età, adulto più anziano) e razza (caucasico / nero).
Nel gruppo demografico della classe singola, l’accuratezza per entrambi gli algoritmi era inferiore per gruppi femminili, neri e giovani.
In particolare, sebbene uno dei due mostrasse una maggiore accuratezza di verifica complessiva, le prestazioni risultavano essere più precise in riferimento ai volti caucasici e non ai volti afroamericani.
Un ulteriore elaborato scientifico “Demographic Effects in Facial Recognition and their Dependence on Image Acquisition: An Evaluation of Eleven Commercial Systems” ha condotto una disamina delle prestazioni di undici sistemi di biometrica facciale in riferimento all’effetto prodotto dai fattori demografici sul tasso di accuratezza delle attività di identificazione e valutazione dei volti.
I risultati delle covariate hanno mostrato che la riflettanza della pelle avesse maggiore impatto sulle prestazioni. Una minore riflettanza della pelle (più scura) era associata ad una minore efficienza (maggiori tempi di transazione) e accuratezza (punteggi di corrispondenza inferiori in tutti i sistemi).
Il National Institute of Standards and Technology (NIST) nel 2019 ha pubblicato un rapporto il “Face Recognition Vendor Test (FRVT) part 3: Demographic Effects” nel quale esamina l’accuratezza degli algoritmi di riconoscimento facciale in diversi gruppi demografici.
Lo studio mediante un test su larga scala (il cui set di dati era composto da immagini segnaletiche fornite dall’FBI, foto di domande di sussidi per l’immigrazione, foto di domande di visto fornite dal Dipartimento di Stato e foto di attraversamento della frontiera per i viaggiatori che entrano negli Stati Uniti) ha compiuto operazioni di verifica con riguardo alla presenza di bias cognitivi nei più recenti sistemi di riconoscimento facciale, con particolare riferimento al tasso di falsi positivi esistente (la frequenza con cui un algoritmo identifica erroneamente l’immagine del volto di un soggetto).
I risultati hanno mostrato che tra i dati demografici, i tassi di falsi positivi spesso variano da 10 a oltre 100 volte a seconda degli algoritmi in uso. I sistemi algoritmici più accurati hanno prodotto un numero significativamente inferiore di errori in tutti i gruppi demografici, evidenziando quanto sia cruciale la qualità dei dispositivi in questione.
Nonostante ciò, anche i migliori algoritmi tra quelli testati (più di 200) continuavano a mostrare pregiudizi (un tasso di falsi positivi più elevato tra gli individui dell’Africa occidentale e orientale e dell’Asia orientale). In breve, i sistemi in questione tendevano a identificare erroneamente le foto di individui asiatici e afroamericani più di quanto identificassero erroneamente i caucasici.
“Il panorama dell’apparente egualitarismo razziale” (sopra enunciato) da parte dei software di riconoscimento facciale viene ulteriormente aggravato da fattori sociali esterni.
Numerosi studi hanno dimostrato la presenza (ineccepibile) di pregiudizi razziali tra le forze dell’ordine americane nei confronti dei gruppi demografici afroamericani.
Questi, infatti, hanno probabilità sproporzionate di entrare in contatto con le forze dell’ordine e di essere tratti in arresto dalle stesse. Ciò significa che l’impiego dei sistemi di riconoscimento facciale da parte della polizia statunitense viene a essere utilizzato maggiormente proprio sul segmento della popolazione su cui i dispositivi di facial recognition compiono prestazioni peggiori.
La lotta americana per la riappropriazione dei volti
A fronte dei numerosi episodi di bad facial recognition alcune delle maggiori città statunitensi come Boston, San Francisco, Oakland, Berkeley, Cambridge, Springfield, Northampton, Brookline e Somerville hanno vietato l’utilizzo dei sistemi di riconoscimento facciale da parte delle forze dell’ordine.
A Portland, in Oregon, il consiglio comunale ha compiuto un ulteriore passo in avanti estendendo il divieto dell’uso del riconoscimento facciale non solo ad autorità locali ma anche a società private.
Il negazionismo del bad facial recognition sembra ormai lasciare il posto ad un attivismo politico sociale volto a scongiurare i pericoli derivanti dall’impiego di questi sistemi.
Anche le migliori società di digital service come Microsoft, Amazon e IBM hanno deciso di non fornire i dispositivi di riconoscimento facciale alle forze dell’ordine statunitensi.
Non solo.
Dopo che l’American Civil Liberties Union of Michigan ha presentato una denuncia contro la polizia di Detroit per l’arrestato di Robert Williams (avvenuto nel gennaio 2020, primo caso noto di bad facial recognition), I membri del congresso di Washington hanno introdotto in senato il 26 giugno scorso il Facial Recognition and Biometric Technology Moratorium Act 2020.
Il rivoluzionario disegno di legge impone limiti all’uso di sistemi di sorveglianza biometrica, come i sistemi di riconoscimento facciale, da parte di enti governativi federali e statali.
Facial Recognition and Biometric Technology Moratorium Act del 2020 dispone che, le agenzie o i funzionari federali, non possano acquisire, possedere o utilizzare in veste ufficiale negli Stati Uniti sistemi di riconoscimento facciale o informazioni ottenute mediante tali sistemi, a meno che, il congresso non approvi un atto che autorizzi specificamente tale uso.