ue e usa a confronto

Riconoscimento facciale con l’IA: il caso Rite Aid e le lacune nella normativa Usa



Indirizzo copiato

La Federal Trade Commission (FTC) ha imposto a Rite Aid un divieto quinquennale sull’uso del riconoscimento facciale per gravi negligenze in sicurezza e trasparenza. Questo provvedimento segna un precedente importante nella regolamentazione delle tecnologie biometriche negli Stati Uniti, evidenziando l’urgenza di un controllo più rigoroso e uniforme

Pubblicato il 3 lug 2024

Francesca Niola

Fellow – ISLC, Università degli Studi di Milano



riconoscimento biometrico

La regolamentazione dell’intelligenza artificiale e delle tecnologie biometriche negli Stati Uniti ha subito un rilevante scossone con la recente decisione della Federal Trade Commission (FTC) contro Rite Aid. L’agenzia ha imposto un divieto quinquennale sull’uso del riconoscimento facciale a causa di gravi negligenze nell’implementazione di adeguate misure di sicurezza e trasparenza.

L’importanza della decisione della FTC

Questo provvedimento rappresenta un precedente significativo nel contesto normativo statunitense e mette in risalto l’urgenza di un controllo più rigoroso sull’uso delle tecnologie avanzate da parte delle aziende. Rite Aid, infatti, è stata trovata colpevole di aver utilizzato un sistema di riconoscimento facciale che generava un numero allarmante di falsi positivi, con conseguenze particolarmente dannose per donne e minoranze etniche.

Le mancanze riscontrate

Dal punto di vista giuridico,  la FTC ha sottolineato come l’azienda non abbia adottato misure preventive adeguate per proteggere i consumatori. Tra le mancanze evidenziate vi sono l’assenza di valutazioni approfondite del rischio, la mancanza di verifiche rigorose sulla precisione della tecnologia e l’implementazione di procedure insufficienti per mantenere alta la qualità dei dati utilizzati per addestrare i sistemi di riconoscimento facciale.

Le misure correttive imposte

L’ordine della FTC impone a Rite Aid di adottare una serie di misure correttive, tra cui l’obbligo di informare proattivamente i consumatori sull’inclusione nei database di riconoscimento facciale e di fornire meccanismi chiari per contestare tale inclusione. Inoltre, Rite Aid deve notificare tempestivamente ai consumatori eventuali decisioni avverse influenzate dalla tecnologia e spiegare le procedure per contestare tali decisioni. L’azienda è inoltre tenuta a condurre test rigorosi e periodici per identificare e correggere eventuali bias statistici basati su razza, etnia, genere, età o disabilità.

L’importanza di un approccio trasparente e responsabile

La decisione di proibire l’uso del riconoscimento facciale da parte di Rite Aid non solo funge da deterrente per altre aziende, ma sottolinea l’importanza di un approccio trasparente e responsabile nell’implementazione di queste tecnologie. Le lacune riscontrate nel caso Rite Aid mettono in evidenza la necessità di aggiornare e rafforzare le leggi esistenti per garantire una protezione effettiva e concreta dei diritti dei consumatori nell’era digitale.

La regolamentazione del riconoscimento facciale negli Usa

Nel contesto statunitense, la regolamentazione del riconoscimento facciale si caratterizza per un approccio frammentario e spesso reattivo, affidato principalmente alle singole agenzie federali come la Federal Trade Commission (FTC). La decisione della FTC contro Rite Aid rappresenta un esempio emblematico di come la regolamentazione si basi su normative preesistenti come il Federal Trade Commission Act e il Children’s Online Privacy Protection Act (COPPA).

Questa regolamentazione, pur importante per reprimere pratiche commerciali ingannevoli e violazioni della privacy dei minori, risulta limitata a interventi episodici delle agenzie federali e manca di una legislazione federale comprensiva che disciplini l’uso delle tecnologie biometriche in modo uniforme e sistematico.

Tuttavia, non esiste ancora una legislazione federale onnicomprensiva che regoli l’uso delle tecnologie biometriche su scala nazionale. Questa mancanza di uniformità può portare a lacune significative nella protezione dei consumatori, lasciando ampi margini di discrezionalità alle singole aziende e alle iniziative locali o statali. Chiaro esempio sono le leggi statali come il Biometric Information Privacy Act (BIPA) dell’Illinois, il quale richiede che le aziende informino preventivamente i consumatori della raccolta dei loro dati biometrici e ottengano il loro consenso esplicito.

L’approccio Ue, più strutturato e preventivo

Diversamente, la regolamentazione europea adotta un approccio più sistematico e preventivo nella protezione dei consumatori.

Dati biometrici, i paletti del Gdpr

Il GDPR (Regolamento Generale sulla Protezione dei Dati) stabilisce norme rigorose per il trattamento dei dati personali, includendo esplicitamente i dati biometrici. Questo quadro normativo impone alle aziende l’obbligo di ottenere il consenso informato degli utenti e di adottare misure di sicurezza adeguate per prevenire l’uso improprio dei dati.

L’AI Act e le regolamentazioni specifiche per le tecnologie di riconoscimento facciale

Inoltre, l’AI Act propone regolamentazioni specifiche per le tecnologie di riconoscimento facciale, classificandole come ad alto rischio e imponendo valutazioni di impatto sulla protezione dei dati e controlli rigorosi prima della loro immissione sul mercato.

L’AI Act dell’Unione Europea impone responsabilità significative alle aziende coinvolte nello sviluppo, distribuzione e utilizzo di tecnologie di intelligenza artificiale, con obblighi che si estendono a tutte le fasi del ciclo di vita dei sistemi AI. Per le imprese operanti nell’UE o che forniscono servizi ai cittadini europei, il regolamento richiede una rigorosa conformità ai requisiti di gestione del rischio, trasparenza e supervisione umana. Le aziende devono classificare i loro sistemi AI in base ai livelli di rischio: basso, limitato, alto e inaccettabile.

L’AI Act e il riconoscimento facciale in ambiti critici

I sistemi ad alto rischio, come il riconoscimento facciale in ambiti critici, devono rispettare standard elevati di gestione del rischio e accuratezza dei dati, garantendo la trasparenza e la supervisione umana continua. Le valutazioni di impatto sulla protezione dei dati e sulla privacy sono obbligatorie e devono essere documentate in modo dettagliato, includendo l’analisi dei bias algoritmici e delle implicazioni etiche.

Gli obblighi per le imprese

Le imprese sono tenute a mantenere un registro completo delle operazioni dei sistemi AI e a predisporre meccanismi per l’intervento umano in caso di errori o malfunzionamenti. La trasparenza nei confronti degli utenti è cruciale: le aziende devono informare chiaramente quando si interagisce con un sistema AI e fornire spiegazioni dettagliate sulle decisioni automatizzate. Questo è essenziale per i sistemi di riconoscimento facciale utilizzati in contesti pubblici, dove i diritti alla privacy e alla non discriminazione devono essere rigorosamente tutelati. Le implicazioni giuridiche di questa normativa sono estese e richiedono un’implementazione scrupolosa da parte delle aziende per evitare gravi sanzioni e per proteggere i diritti fondamentali dei cittadini.

Il processo legislativo che ha portato all’adozione dell’AI Act: dibattiti e critiche

Il processo legislativo che ha portato all’adozione dell’AI Act ha sollevato numerosi dibattiti e critiche. Una delle principali preoccupazioni riguarda la definizione stessa di intelligenza artificiale e la classificazione dei sistemi AI in base al rischio. Alcuni critici sostengono che la definizione di AI sia troppo ampia e vaga, rendendo difficile per le aziende determinare con precisione quali sistemi rientrano nelle diverse categorie di rischio. Un’altra area di dibattito ha riguardato le implicazioni economiche del regolamento. Le piccole e medie imprese (PMI) hanno espresso preoccupazione per i costi di conformità, sostenendo che le rigide normative potrebbero rappresentare un onere eccessivo, limitando la loro capacità di innovare e competere con le grandi aziende tecnologiche. In risposta a queste preoccupazioni, l’AI Act prevede la creazione di “sandbox regolamentari” per le PMI, permettendo loro di sviluppare e testare tecnologie AI in un ambiente controllato senza essere immediatamente soggette a rigide normative.

Il ruolo della autorità di vigilanza europee nella protezione dei consumatori

Le autorità di vigilanza europee, come il Comitato Europeo per la Protezione dei Dati (EDPB) e il Garante Europeo della Protezione dei Dati (EDPS), giocano un ruolo cruciale nel garantire l’applicazione coerente del GDPR, che include severe limitazioni all’uso dei dati biometrici. Questi organismi indipendenti assicurano che l’uso delle tecnologie di riconoscimento facciale non comprometta i diritti fondamentali dei cittadini, come la dignità umana e la libertà di movimento.

Ciò incide fortemente nella protezione dei consumatori nel contesto delle tecnologie di riconoscimento facciale e anche in questo caso sono riscontrabili notevoli differenze tra Stati Uniti e Unione Europea.

Prospettive future dell’AI Act

Le prospettive future e le potenziali evoluzioni del quadro normativo sono altrettanto rilevanti. L’AI Act è destinato a evolversi per affrontare le sfide emergenti e adattarsi ai rapidi sviluppi tecnologici. È probabile che vengano introdotte ulteriori linee guida e regolamenti specifici per settori particolari, come la sanità, l’istruzione e la sicurezza pubblica, dove l’uso dell’intelligenza artificiale è particolarmente sensibile.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4