Il riconoscimento facciale via intelligenza artificiale, ossia la tecnologia in grado di riconoscere automaticamente una persona in base ai suoi tratti facciali, al fine di autenticarla o identificarla, solleva nuovi interrogativi sulle scelte della società e, in quanto tale, l’interesse per l’argomento sta crescendo nell’opinione pubblica europea e globale. Vediamo quali sono gli aspetti tecnici, giuridici ed etici che devono essere tenuti presenti nell’affrontare questo complesso tema, alla luce di tre recenti interventi dell’istituto statunitense NIST, dell’autorità privacy francese CNIL e dell’AI Now Institute at NYU.
Il Rapporto NIST 2019 sul riconoscimento facciale
Il National Institute of Standards and Technology (NIST) è un’agenzia governativa del Dipartimento del Commercio degli Stati Uniti con una mission ben precisa: promuovere l’innovazione e la competitività industriale in diversi settori. Le attività del NIST sono organizzate in programmi che includono – tra gli altri – scienza e tecnologia, Information Technology, ricerca sui neutroni e misurazione dei materiali. Nell’ultimo e interessante rapporto dello scorso dicembre 2019 denominato “Face Recognition Vendor Test (FRVT) Part 3: Demographic Effects”, che ha riguardato i fornitori di software per il riconoscimento facciale, sono stati rilevati problemi in merito a pregiudizi razziali e scarsi livelli di accuratezza in specifici casi. Tra le altre cose, lo studio del NIST ha rilevato che i sistemi di riconoscimento facciali utilizzati dalle forze dell’ordine tendevano ad avere difficoltà ad identificare con precisione i volti dei nativi americani e degli afroamericani, e che alcune persone agli estremi dello “spettro di età” preso in esame erano più propense a sperimentare falsi positivi.
L’uso di software per il riconoscimento facciale da parte dei governi è un tema attuale oggetto di controversie in tutto il mondo. Le maggiori potenze mondiali, in primo luogo gli Stati Uniti e la Cina, hanno fatto grandi progressi sia nello sviluppo che nella diffusione di questa tecnologia nell’ultimo decennio. Sia gli Stati Uniti che la Cina hanno esportato ed esportano costantemente questa tecnologia in altri paesi. La rapida diffusione dei sistemi di riconoscimento facciale ha allarmato le associazioni per la difesa della privacy, preoccupate per la maggiore capacità dei governi – così come per società private come Facebook – di profilare e rintracciare in maniera sempre più efficace determinate persone.
Lo studio NIST “FRVT” – scendendo nel dettaglio – si è concentrato in particolare sulla capacità di dei sistemi di riconoscimento facciale di identificare i vari gruppi demografici presi a campione. I test hanno utilizzato sia processi di riconoscimento facciale “uno a uno” (one-to-one) che “uno a molti” (one-to-many)[1], attingendo a diversi database fotografici governativi, come – ad esempio – foto segnaletiche scattate durante gli arresti, fotografie dei visti, fotografie scattate ai valichi di frontiera e immagini allegate alle “domande di immigrazione”. La maggior parte dei dati acquisiti contiene immagini di alta qualità, mentre le fotografie scattate ai valichi di frontiera sono state inserite intenzionalmente nello studio come “dati di bassa qualità”. Lo studio ha esaminato in tal modo sia i falsi positivi che i falsi negativi.
Un risultato chiave dei diversi studi effettuati finora è che l’accuratezza dell’algoritmo varia notevolmente da un fornitore di servizi di riconoscimento facciale all’altro. Un importante risultato specifico di questo studio più recente (N.d.A. FRVT by NIST) è che gli algoritmi tendono ad avere una distorsione su base etnica che corrisponde al luogo in cui sono stati creati. Ad esempio, gli algoritmi sviluppati in Cina tendono ad avere una migliore accuratezza quando viene effettuato il riconoscimento facciale di persone aventi tratti orientali (es. cinesi, giapponesi, coreani ecc.).
In tutti gli algoritmi, i falsi positivi sono molto più frequenti dei falsi negativi. Anche le percentuali più elevate di falsi positivi per donne, bambini e anziani sono stati coerenti in tutti gli algoritmi, anche se nessuno è stato più frequente dei falsi positivi attribuibili all’appartenenza etnica.
Nel complesso, i dataset di qualità superiore hanno prodotto elevati falsi positivi con soggetti di etnia africana e dell’Asia orientale (con l’eccezione degli algoritmi sviluppati nei paesi asiatici, di cui supra) con tassi da 10 a 100 volte superiori a quelli dei soggetti di etnia caucasica (es. soggetti europei). Gli algoritmi utilizzati dalle forze dell’ordine hanno avuto le più alte percentuali di falsi positivi con i soggetti nativi americani, e tassi significativamente elevati con i soggetti afroamericani e asiatici. I falsi negativi che si sono verificati sono stati più frequenti nelle foto segnaletiche di soggetti asiatici e nativi americani in occasione dell’esame di dataset di alta qualità. Nelle fotografie scattate ai valichi di frontiera, le percentuali di falsi più alte per gli africani e i soggetti di paesi caraibici erano particolarmente circoscritte alle persone anziane.
Il pregiudizio razziale è un problema consolidato da tempo nei diversi sistemi di riconoscimento facciale. Il colpevole qui è probabilmente lo stesso presentatosi in precedenti casi: dataset di “addestramento” al riconoscimento facciale che si distorcono troppo – a prescindere dall’etnia di maggioranza su cui l’algoritmo è sviluppato – e che, al contempo, sembrano distorcere anche su soggetti a base maschile e di mezza età.
Come sottolineò il blog di Algorithmia nel 2018[2], molti processi di riconoscimento facciale di uso comune si basano su vecchi dataset utilizzati per l’allenamento degli algoritmi. Tali dataset, vecchi di un decennio, possono anche essersi appoggiati a fonti che naturalmente si sono orientate molto verso la maggioranza etnica dell’area in cui sono state raccolte.
Il rapporto NIST sottolinea che i singoli algoritmi tendono ad avere i propri pregiudizi, ed è fondamentale che chiunque utilizzi un algoritmo sia consapevole dei pregiudizi che esso può contenere. Il NIST riferisce di aver trovato differenze demografiche, in particolare falsi positivi, nella maggior parte degli algoritmi che ha testato. Lo studio ha compreso 189 algoritmi di 99 sviluppatori, che rappresentano la maggior parte di quelli utilizzati oggi. Il NIST ha citato l’algoritmo NEC-3 della NEC Corporation come il più accurato che ha valutato. Tuttavia, alcuni algoritmi principali erano assenti dallo studio, in particolare il sistema Rekognition di Amazon.
Se da un lato sono state espresse numerose preoccupazioni e sono state formulate accuse nell’ultimo decennio, dall’altro ci sono state in realtà poche prove empiriche reali a sostegno della nozione di pregiudizio su base etnica in materia di riconoscimento facciale. Questo studio federale chiarisce che si tratta di una questione reale presente in molti diversi algoritmi di tecnologia di riconoscimento facciale comunemente usati, e che sono necessari alcuni tipi di cambiamenti (come dati di formazione più diversificati) per produrre risultati più equi e ridurre i tassi di errore.
Ovviamente i problemi iniziano ai confini nazionali (es. valichi di frontiera), dove gli algoritmi di riconoscimento facciale vengono utilizzati già da tempo per identificare potenziali minacce alla sicurezza. Questi algoritmi non solo possono effettuare corrispondenze errate di dati demografici di minoranza a un tasso allarmante, ma possono anche non identificare minacce (es. terroristi) lì dove utilizzano dati fotografici non all’altezza degli standard.
I risultati dello studio NIST amplificheranno sicuramente le richieste di vietare l’uso di software di riconoscimento facciale da parte delle forze dell’ordine per identificare le persone, cosa che le città di Oakland e San Francisco hanno già fatto. Attualmente non esiste una legge federale negli Stati Uniti che limiti l’uso di software di riconoscimento facciale. Di recente le agenzie governative hanno fatto marcia indietro rispetto ad alcuni loro piani sull’uso del riconoscimento facciale, in particolare presso le dogane, nel campo della protezione delle frontiere, che non prevedono più di scansionare i cittadini statunitensi quando entrano ed escono dal paese.[3]
Il punto di vista del CNIL su AI e facial recognition
L’autorità francese per la protezione dei dati personali CNIL – Commission Nationale de l’Informatique et des Libertés – ha pubblicato un interessante contributo in materia di riconoscimento facciale. La CNIL stabilisce una definizione tecnica di cosa sia il riconoscimento facciale e per cosa venga utilizzato, con lo scopo di fornire chiarezza e soluzioni pratiche, evidenziando la necessità di valutazione del rischio e di adeguate salvaguardie del settore. L’autorità privacy di Parigi ha rivisto anche i requisiti più rigorosi per i quadri di riferimento per il riconoscimento facciale imposti dalla combinazione GDPR/normativa nazionale/normativa europea, chiarendo la propria posizione nel consigliare e far rispettare, ma non nel determinare, tali quadri di riferimento.
Il riconoscimento facciale richiede scelte politiche ben precise, come ad esempio il ruolo che si attribuisce a questa tecnologia, come essa influisca sulle libertà fondamentali degli individui e quale sia il suo posto nell’era digitale. Secondo la CNIL il dibattito sul riconoscimento facciale non deve limitarsi a una considerazione tecnica dei potenziali usi e dell’efficacia di questa tecnologia, né deve essere finalizzato unicamente a scoprire come rendere accettabile per i cittadini una tecnologia che sarebbe necessaria. Non è così per l’autorità francese: è una questione complessa, che merita un dibattito lucido e approfondito. Un dibattito che deve mirare a determinare in quali casi il riconoscimento facciale è necessario in una società democratica e in quali no. Il dibattito su questa tecnologia deve quindi essere proattivo e lungimirante. L’obiettivo è quello di evitare qualsiasi cambiamento della società attraverso il graduale accumulo di nuovi usi di questa tecnologia, attraverso il suo insidioso insinuarsi nella vita quotidiana dei cittadini, e senza che questo cambiamento sia stato prima oggetto di un ampio dibattito e di una scelta politica consapevole.
Per questo motivo la CNIL, avvalendosi della sua esperienza in materia di riconoscimento facciale ha posto quattro obiettivi. Vediamoli di seguito.
- Presentare, in termini tecnici, che cos’è il riconoscimento facciale e a cosa serve, per garantire che l’argomento sia chiaro per tutti.
Questa tecnica biometrica per il riconoscimento automatico di una persona, basata sull’esame delle caratteristiche del suo volto, non deve essere confusa con altre tecniche di elaborazione delle immagini come i dispositivi smart video – che rilevano eventi o emozioni senza riconoscere gli individui – con cui a volte, afferma la CNIL, può essere confusa. Secondo l’autorità privacy d’oltralpe, dietro al termine “riconoscimento facciale” si nascondono una serie di possibili utilizzi, come ad esempio lo sblocco dello smartphone per l’accesso al conto corrente bancario, oppure l’individuazione di una persona ricercata dalla polizia in mezzo a una folla. Questi utilizzi non sollevano tutti gli stessi problemi, in particolare per quanto riguarda il controllo che le persone hanno – o possono avere – sui loro dati personali e non. A detta della CNIL, questa panoramica è necessaria per evitare qualsiasi confusione e qualsiasi conclusione generale sulla tecnologia del riconoscimento facciale, essendo sempre necessario ragionare sul suo utilizzo caso per caso.
- Per evidenziare i rischi tecnologici, etici e sociali associati a questa tecnologia.
I rischi tecnologici, etici e sociali sono legati alla – o insiti nella – natura biometrica del riconoscimento facciale: i dati estratti dai volti riguardano la privacy degli individui. Qualsiasi violazione o uso improprio dei dati comporterebbe rischi significativi (ad esempio, blocco dell’accesso a un servizio, furti di identità ecc.). Inoltre il riconoscimento facciale si basa più che altro su una probabilità, piuttosto che sull’assoluta certezza di una corrispondenza tra i volti da confrontare e il “modello di base”. Le variazioni delle prestazioni e dei risultati associati possono quindi avere conseguenze di vasta portata per le persone che vengono identificate in modo errato (i cosiddetti “falsi” esaminati nel precedente capitolo).
Un altro problema – a detta dell’autorità privacy francese – che questa tecnologia innesca è l’elaborazione dei dati a distanza, senza contatto con l’individuo e/o senza che la persona interessata ne sia a conoscenza. Nell’attuale ambiente digitale, in cui i volti delle persone sono disponibili in più database e catturati da numerose telecamere deputate alla videosorveglianza pubblica e privata, il riconoscimento facciale ha il potenziale per diventare uno strumento particolarmente onnipresente e invadente. L’aumento della sorveglianza “di massa” resa possibile da questa tecnologia può ridurre il livello di anonimato offerto ai cittadini negli ambienti pubblici (e, a detta di chi scrive, negli ambienti privati aperti al pubblico).
La CNIL conclude il punto con la necessità di una valutazione dei rischi, affinché si determinino quali rischi non sono accettabili in una società democratica e quali possono essere assunti con adeguate salvaguardie.
- Il quadro (legislativo) che disciplina i dispositivi di riconoscimento facciale e la loro sperimentazione.
Nel punto 3 la CNIL fa esordire le norme poste a difesa del trattamento dei dati biometrici: il GDPR e la francese Loi n° 78-17 du 6 janvier 1978 modificata nel 2018 con l’applicazione del GDPR. Tali norme – afferma la CNIL – hanno introdotto disposizioni più severe sui dispositivi biometrici con l’obiettivo di allineare la protezione dei dati ai nuovi usi della tecnologia digitale. Qualsiasi uso, anche sperimentale, del riconoscimento facciale deve quindi rispettare questo quadro giuridico (N.d.A. nel nostro caso è d’interesse particolare il solo GDPR).
In conformità a queste regole, secondo il garante francese la necessità dell’uso dei dispositivi di riconoscimento facciale deve essere stabilita caso per caso: tale tecnologia non può essere utilizzata senza un requisito specifico che ne garantisca un’elevata affidabilità in merito alla verifica dell’identità delle persone interessate. Inoltre è richiesto: che siano garantite la proporzionalità dei mezzi impiegati nonché la protezione per i minori d’età; infine deve essere garantito il rispetto delle persone ottenendo il loro consenso e assicurando il pieno controllo sui loro dati. La CNIL, applicando i principi elencati in precedenza, ha già avuto l’opportunità di acconsentire ad alcuni utilizzi (es. controllo delle frontiere negli aeroporti), e di rifiutare altri (es. controllo dell’accesso degli studenti nelle scuole[4]).
Conclude l’autorità privacy parigina affermando che questi requisiti si applicheranno a qualsiasi dispositivo di riconoscimento facciale, anche sperimentale.
- Chiarire il ruolo della CNIL in ogni sperimentazione di nuovi dispositivi di riconoscimento facciale.
La CNIL termina il suo comunicato affermando che non prende le parti “né di decisore né di prescrittore” nel settore del riconoscimento facciale, statuendo che tutte le scelte del caso spettano al Governo e al Parlamento francese.
Tuttavia il garante privacy di Parigi sottolinea che il diritto europeo (GDPR) e nazionale ha tuttavia conferito alla CNIL missioni di consulenza – in particolare per le autorità pubbliche – e missioni di monitoraggio. La CNIL intende assumere pienamente il suo ruolo rispetto a questa tecnologia, anche fornendo una consulenza indipendente sul quadro giuridico e metodologico che disciplina un approccio sperimentale sulla tematica. Sarà inoltre in grado di consigliare i responsabili dei progetti sulle sperimentazioni previste nonché di contribuire, nell’ambito della sua sfera di competenza, alla valutazione dei dispositivi di riconoscimento facciale. Se necessario, sottolinea la CNIL, l’autorità eserciterà i suoi poteri di indagine su questi dispositivi adottando le misure correttive necessarie per proteggere le persone interessate, pur rimanendo pienamente indipendente.[5]
Il Rapporto Ainow 2019: moratoria sul riconoscimento facciale
Il rapporto annuale “AI Now Symposium”, giunto all’edizione 2019, è “un’immersione profonda” nel settore dell’Intelligenza Artificiale condotta dall’AI Now Institute della New York University. Tale rapporto si concentra sull’impatto sociale che l’utilizzo dell’Intelligenza Artificiale ha sugli esseri umani, sulle comunità e sulla popolazione in generale. AI Now raccoglie informazioni e analisi da esperti mondiali in merito a una miriade di discipline, lavorando a stretto contatto con i partner di tutta le comunità informatiche, giuridiche e di protezione dei diritti civili (es. associazioni a difesa della privacy).
Il rapporto di fine anno 2019 inizia con dodici raccomandazioni basate sulle conclusioni dell’istituto newyorkese. Vediamole insieme.
- Le autorità di regolamentazione dovrebbero vietare l’uso dell’affect recognition[6] in decisioni importanti che hanno un impatto sulla vita delle persone e sulle opportunità di accesso individuali.
- I governi e le imprese dovrebbero interrompere l’uso del riconoscimento facciale in contesti sociali e politici sensibili fino a quando i rischi non saranno stati studiati a fondo e non saranno state adottate disposizioni di legge adeguate.
- Il settore dell’Intelligenza Artificiale deve apportare cambiamenti strutturali significativi per affrontare il “razzismo sistemico”, la misoginia e la mancanza di diversità tra i diversi modelli.
- La ricerca sull’Intelligenza Artificiale dovrebbe andare oltre i limiti tecnici per affrontare le conseguenze dell’uso di tale tecnologia.
- I governi dovrebbero imporre la divulgazione pubblica dell’impatto climatico del settore dell’Intelligenza Artificiale.
- I lavoratori dovrebbero avere il diritto di contestare lo sfruttamento e l’invasione dell’Intelligenza Artificiale, con i sindacati posti a loro aiuto.
- I lavoratori del settore tech dovrebbero avere il diritto di sapere cosa stanno costruendo e di contestare gli utilizzi non etici o dannosi del loro lavoro.
- Gli stati dovrebbero elaborare leggi sulla “privacy biometrica” che regolino sia gli attori pubblici che quelli privati.
- I legislatori devono regolamentare l’integrazione delle infrastrutture di sorveglianza pubbliche e private.
- Gli Algorithmic Impact Assessments devono tenere conto dell’impatto dell’Intelligenza Artificiale sul clima, sulla salute e sul dislocamento geografico.
- I ricercatori che si occupano di Machine Learning devono tenere conto dei rischi e dei danni potenziali, nonché documentare meglio le origini dei loro modelli e dei loro dati.
- I legislatori dovrebbero richiedere il consenso informato per l’uso di qualsiasi dato personale nel rapporto tra Intelligenza Artificiale e dati relativi alla propria salute.
Il tema sollevato sembra essere che le aziende e i governi devono smettere di scaricare la responsabilità sociale ed etica su terzi. Secondo il rapporto, la mancanza di regolamentazione e di supervisione etica ha portato a uno stato di sorveglianza quasi totale negli Stati Uniti. E l’uso di “sistemi di scatola nera” in tutto il sistema giudiziario e finanziario statunitense è proliferato, nonostante sia stato dimostrato che l’Intelligenza Artificiale è intrinsecamente di parte.
AI Now osserva che queste entità hanno visto una quantità significativa di pressioni da parte di gruppi di attivisti e di esperti, ma sottolinea anche che è stato fatto relativamente poco per arginare il flusso di un dannoso utilizzo dell’Intelligenza Artificiale.
Nonostante la crescente preoccupazione dell’opinione pubblica e l’azione normativa, il riconoscimento facciale e le altre tecnologie di Intelligenza Artificiale “a rischio” hanno a malapena rallentato la loro avanzata. Secondo il rapporto, i cosiddetti progetti delle “smart city” in tutto il mondo stanno consolidando il potere sulla vita civile nelle mani di grandi aziende tecnologiche, affidando loro il compito di gestire le risorse e le informazioni critiche interessate.
Ad esempio, il progetto Sidewalk Labs di Google ha persino promosso la creazione di un punteggio di “credito cittadino” gestito da Google come parte del suo piano per le partnership pubblico-private come Sidewalk Toronto. Mentre Amazon ha fortemente commercializzato il suo Ring, una videocamera per la videosorveglianza domestica con Intelligenza Artificiale. L’azienda di Seattle ha collaborato con oltre 700 dipartimenti di polizia, utilizzando la stessa polizia come venditore per convincere i residenti ad acquistare il sistema. In cambio, alle forze dell’ordine è stato concesso un più facile accesso ai filmati di videosorveglianza di Ring.
Secondo AI Now, aziende come Amazon, Microsoft e Google stanno lottando per essere le prime a ottenere massicci contratti governativi per far crescere l’uso dell’Intelligenza Artificiale finalizzata al monitoraggio e alla sorveglianza dei rifugiati e dei residenti, insieme alla proliferazione dei sistemi di identità biometrica, contribuendo all’infrastruttura di sorveglianza globale gestita da società tecnologiche private e messa a disposizione dei governi.
Il rapporto si occupa anche di affect recognition dell’Intelligenza Artificiale, un “sottoinsieme” del riconoscimento facciale che si è fatto strada nelle scuole e nelle aziende di tutto il mondo. Le aziende la utilizzerebbero durante i colloqui di lavoro per verificare se un candidato è sincero, potenzialmente produttivo e attento.
Secondo il rapporto AI Now 2019 i critici hanno anche notato le analogie tra la logica dell’affect recognition, in cui il valore personale e il carattere sono presumibilmente distinguibili dalle caratteristiche fisiche, screditando la scienza “su base etnica” e la fisionomia, sostenendo che le differenze biologiche giustificano la disuguaglianza sociale. Tuttavia, nonostante ciò, l’influenza dell’Intelligenza Artificiale continua ad essere diffusa su larga scala in tutti gli ambienti, dalle aule scolastiche ai colloqui di lavoro, etichettando chi è “produttivo” o è un “buon lavoratore”, spesso all’insaputa delle persone interessate.
A questo punto, sembra che qualsiasi azienda che sviluppi o implementi tecnologie di Intelligenza Artificiale potrebbe potenzialmente porre in atto discriminazioni investendo in esse – in particolare nella tecnologia della scatola nera (black box), che pretende di comprendere ciò che una persona sta pensando o provando in un dato momento. Per AI Now è passato quel tempo in cui le aziende e i governi potevano fingere di ignorare la questione.
Secondo il rapporto, negli Stati Uniti, come in Cina, vi è una costante sorveglianza pubblica e privata. Le telecamere registrano ogni spostamento in luoghi pubblici, in luoghi aperti al pubblico, in luoghi di lavoro, nelle scuole e nei quartieri delle grandi città. E – secondo il rapporto – la cosa peggiore di tutte è che non solo il governo ha utilizzato le tasse dei cittadini statunitensi per finanziare tutto, ma milioni di americani hanno inconsapevolmente acquistato, montato e manutenuto l’attrezzatura di sorveglianza.
AI Now ha scritto che Amazon ha esemplificato questa nuova ondata di tecnologia di sorveglianza commerciale con il già accennato Ring, una società di dispositivi di sicurezza intelligenti acquisita dall’azienda di Seattle nel 2018. Il prodotto centrale è il suo campanello video, che permette agli utenti di registrare, vedere e parlare con coloro che si avvicinano alla porta di casa. Questo dispositivo è abbinato a un’APP per la sorveglianza del quartiere chiamata Neighbors, che permette agli utenti di pubblicare casi di criminalità o problemi di sicurezza nella loro comunità e di commentare con informazioni aggiuntive, tra cui foto e video. Una serie di rapporti rivela che Amazon aveva negoziato alcune partnership per la condivisione di video ottenuti mediante Ring con più di 700 dipartimenti di polizia in tutti gli Stati Uniti. Come accennato in precedenza, le partnership danno alla polizia un portale diretto attraverso il quale richiedere i video agli utenti di Ring in caso di un’indagine di polizia nelle vicinanze dell’abitazione. Inoltre, secondo il rapporto, non solo Amazon incoraggia i dipartimenti di polizia a utilizzare e commercializzare i prodotti Ring, offrendo loro sconti, ma “allena” la polizia su come richiedere con successo i filmati di videosorveglianza dei vicini attraverso il loro portale speciale.
La grande preoccupazione è che il radicamento di questi sistemi di sorveglianza potrebbe diventare così profondo che le forze dell’ordine potrebbero reagire negativamente a un diniego da parte del cittadino.
Ecco perché, prosegue AI Now, negli Stati Uniti i poliziotti dovrebbero ottenere un mandato per “invadere” la privacy in caso di sospetta attività criminale in corso. Cosa “bypassabile” con l’utilizzo di APP come Amazon Neighbors e Palantir.
In conclusione AI Now avverte che questi problemi (es. Intelligenza Artificiale “di parte”, sistemi di riconoscimento facciale discriminatori e sorveglianza potenziata dall’Intelligenza Artificiale) non possono essere risolti con sistemi di patch o algoritmi, bensì solamente con un cambio di rotta dell’amministrazione statunitense.
- Difference between one-to-one and one-to-many relationship in database. Stack Exchange Inc. ↑
- Racial Bias in Facial Recognition Software. Algorithmia. ↑
- NIST report tackles issue of bias in facial biometrics. Biometrics Research Group, Inc. ↑
- Expérimentation de la reconnaissance faciale dans deux lycées: la CNIL précise sa position. CNIL – Commission Nationale de l’Informatique et des Libertés.↑
- Facial recognition: for a debate living up to the challenges. CNIL – Commission Nationale de l’Informatique et des Libertés. ↑
- Affect Recognition, in “Computational Intelligence and Decision-Making pp 323-332”. Springer Nature Switzerland AG ↑