Sono sotto esame, da parte dei gruppi per i diritti umani, le nuove politiche di sorveglianza digitale adottate dall’amministrazione Biden negli Stati Uniti nel tentativo di sanare i torti subiti dagli immigrati nella vigenza delle politiche di contenimento dell’immigrazione adottate dalla precedente amministrazione Trump.
Lo scopo principale dichiaratamente perseguito dall’amministrazione Biden, infatti, è quello di ricorrere a forme di sorveglianza meno invasive, che permettano di tenere le famiglie fuori dalle strutture di detenzione, tramite l’ausilio di strumenti digitali innovativi che consentano di rintracciare gli immigrati sul suolo statunitense, senza la necessità di restringerne la libertà.
Il programma di finanziamento delle alternative digitali, più in generale, è cresciuto fortemente negli ultimi anni, con finanziamenti che passano da 28 milioni di dollari nel 2006 a 440 milioni di dollari nel 2021.
Il riconoscimento facciale per le indagini di polizia: com’è usato e i suoi limiti
Le politiche di sorveglianza digitale
Come anticipato in premessa, il programma avviato da Biden al fine di trovare delle alternative alla detenzione, ha quale obiettivo quello di porre fine alle intensive forme di detenzione che sono state tristemente oggetto di cronaca negli ultimi anni.
Tramite il ricorso a forme di sorveglianza e controllo digitale, ritenute meno dannose rispetto alla detenzione fisica in quanto comportano una minore contrazione delle libertà e dei diritti fondamentali soggettivi, il programma tiene oggi traccia di circa 100.000 persone (96.574 secondo le statistiche riportate dal The Guardian); numero, questo, in costante aumento: nel bilancio 2022 si chiede, infatti, di aumentare il numero di soggetti sottoposti a controllo digitale, fino a circa 140.000.
In concreto, gli strumenti digitali utilizzati dall’amministrazione e dall’agenzia per l’immigrazione (Immigration and Customs Enforcement – ICE) statunitense, sono molteplici:
- Monitor di tracciamento GDS apposti sulla caviglia;
- Applicazione SmartLINK, tramite la quale i soggetti sottoposti al controllo possono effettuare un “check-in” tramite un utilizzo combinato di tecnologie di sorveglianza facciale (che analizzano i selfie) e di conferma della posizione in tempo reale.
Detto sistema, secondo i gruppi di difesa dei diritti umani, “solleva una serie di problemi di privacy e sorveglianza”, in quanto rappresenta solo un mutamento delle forme di sorveglianza e detenzione, e non la cessazione delle stesse, inibendo il progresso reale delle politiche di gestione dell’immigrazione.
Preoccupazioni che sembrano fondate, alla luce delle risultanze contenute nel rapporto titolato Ice Digital Prisons, redatto dal gruppo latino-americano Mijente e dal gruppo per i diritti legali dell’immigrazione Just Futures Law, pone in evidenza come l’ICE utilizzi l’app, il monitor da caviglia e i software di riconoscimento facciale per attuare un pericoloso tracciamento massivo delle persone: tali metodi “fanno più male e inibiscono qualsiasi vero progresso nel fornire gli strumenti sociali ed economici per permettere agli immigrati di prosperare nelle loro comunità”.
Specialmente l’apposizione del monitor da caviglia, secondo il report, criminalizzerebbe ulteriormente gli immigrati, influendo sensibilmente sul loro benessere sociale ed economico, oltre che sul benessere fisico e mentale.
Julie Mao, avvocato per l’immigrazione che ha collaborato con Just Futures Law alla redazione del report, ha affermato che “Ci sono così tanti modi in cui le catene alla caviglia causano danni fisici ed emotivi alle persone. È profondamente stigmatizzante avere il monitor da caviglia, può creare piaghe, deve essere caricato spesso. Averlo su di te 24 ore su 24, 7 giorni su 7, crea un enorme tensione mentale sulle persone”.
Oltre all’aspetto psicologico e sociale connesso alle forme di “restrizione digitale”, nel report si evidenzia anche come il sistema di tracciamento, per come pensato, possa, in molto casi, portare all’applicazione di forme di detenzione reale, a causa dell’insorgenza di errori all’interno della app o di problemi nella fase di check-in richiesti da un immigrato.
L’ICE, peraltro, ha utilizzato in alcuni casi i dati storici elaborati dai braccialetti da caviglia per rintracciare gli immigrati e sottoporli tempestivamente a misure di arresto. In tal senso, vedasi il caso Koch Foods, che ha portato all’arresto di 680 immigrati, in quanto lavoratori irregolari all’interno dell’azienda: “If you’re somewhere you ain’t supposed to be, they’re going to come get you”, ha affermato nell’occasione uno dei lavoratori della Koch Foods.
In quell’occasione, moltissime furono le critiche nei confronti delle misure estreme adottate dall’ICE nei confronti dei lavoratori ispanici.
Proprio al fine di evitare che episodi di discriminazione e violenza eccessiva nei confronti degli immigrati possano aver luogo, disincentivando il sano e progressivo ingresso degli stessi all’interno del panorama sociale statunitense, il rapporto afferma che “I politici e i sostenitori dovrebbero respingere gli inviti a investire in alternative carcerali ai programmi di detenzione e concentrarsi su soluzioni che metto fine a tutte le forme di sorveglianza e detenzione degli immigrati”.
La strategia degli “smart border controls”
Quanto esaminato si pone all’interno di una più generale strategia di digitalizzazione dei controlli di frontiera, contenuta nello “U.S. Citizenship Act” del 2021, nell’intenzione dichiarata dell’amministrazione Biden di “ripristinare l’umanità e i valori americani al nostro sistema di immigrazione”, modernizzare il sistema di immigrazione e garantire che l’America sia un “rifugio” sicuro per coloro che scappano dalla persecuzione.
Le priorità dettate dal disegno di legge in relazione agli “smart control borders” sono molteplici. In linea generale, l’amministrazione Biden intende:
- Implementare le risorse frontaliere esistenti con tecnologia e infrastrutture, tramite lo stanziamento di fondi che consentano di sviluppare e attuare un piano di crescita tecnologica finalizzato all’accelerazione dello screening di rilevazione dei narcotici. Ciò includerà tecnologie di scansione ad alta produttività, videocamere, sensori, macchine a raggi-x su larga scala, ed altro. Unico limite posto all’applicazione di tali tecnologie è quello di garantire che la tecnologia utilizzata per le ispezioni serva efficacemente a scopi legittimi e non rappresenti un’illecita violazione della privacy;
- Gestire la frontiera e proteggere le comunità di frontiera: il disegno di legge prevede finanziamenti per la formazione continua degli agenti e degli ufficiali, per promuovere la sicurezza e la professionalità;
- Giro di vite sulle organizzazioni criminali: il disegno di legge aumenta la capacità di perseguire le persone coinvolte nelle reti di contrabbando e traffico che sono responsabili dello sfruttamento dei migranti.
Il grande problema degli “scopi legittimi”
Sebbene l’amministrazione Biden affermi che la tecnologia servirà soltanto a perseguire “scopi legittimi”, l’abuso di tali strumenti e dei dati raccolti non è una novità, non soltanto negli Stati Uniti.
Il bilanciamento della legittimità di tali scopi, e delle misure attuate a tutela della sicurezza pubblica, è, anzi, oggi uno dei più accesi argomenti di discussione, oggetto anche di numerose riforme legislative.
Da ultimo, l’UE ha infatti pubblicato la proposta di Regolamento sull’intelligenza artificiale e sulla sorveglianza di massa, ribadendo quanto alto sia il rischio che l’utilizzo massivo di forme di sorveglianza delle persone fisiche possa portare a fenomeni di discriminazione, radicalizzazione, e altro, nei confronti di specifici gruppi di soggetti.
Occorre rammentare, infatti, che i sistemi di intelligenza artificiale non sono mai scevri da “bias”, da pregiudizi, propri anche della società all’interno della quale vengono configurati e prodotti, o derivanti semplicemente da errori di programmazione.
Per tale motivazione, l’adozione di tali sistemi all’interno di settori e ambienti particolarmente delicati, come l’immigrazione e, più in generale, il controllo di frontiera – altamente influenzati da discriminazioni razziali ed etniche – potrebbe avere conseguenze disastrose.
A titolo esemplificativo, si citano alcuni casi nei quali sono emersi fenomeni di “abuso” dei mezzi di riconoscimento facciale nei confronti degli immigrati o di soggetti appartenenti a una determinata nazionalità/etnia:
- Tra il 2014 e il 2017 negli Stati Uniti, ICE ha utilizzato il riconoscimento facciale per estrarre database di patenti di guida statali per rilevare “immigrati illegali”;
- Sempre sotto l’amministrazione Trump, l’Agenzia per l’immigrazione e le dogane (ICE) ha collaborato con la controversa società di analisi dei dati Palantir per collegare i suggerimenti della polizia e dei cittadini con altri database, nel tentativo di arrestare persone irregolari;
- I rifugiati di vari paesi, tra cui Kenya ed Etiopia, sono stati sottoposti alla raccolta dei loro dati biometrici per anni;
- Nel 2017, il ministro dell’Industria del Bangladesh Amir Hossain Amu ha affermato che il governo stava raccogliendo dati biometrici dai rohingya presenti nel paese per “tenere traccia” di loro e rimandarli “a casa loro”;
- Nel 2016, il deputato del New South Wales, Mehreen Faruqi, di origine pakistana, ha affermato di essere stata trattenuta in un aeroporto per più di un’ora, dopo che il personale dell’immigrazione ha preso le sue impronte digitali, le ha chiesto da dove fosse “originaria” e come avesse ottenuto un passaporto australiano;
Da ultimo, Dal 2016 al 2019, Ungheria, Lettonia e Grecia hanno condotto un test automatizzato di rilevamento delle bugie finanziato dal programma di finanziamento della ricerca e dell’innovazione dell’Unione europea, Horizon 2020.
Il test iBorderCtrl analizzava i microgesti facciali dei viaggiatori che attraversano le frontiere internazionali in tre aeroporti, non comunicati, allo scopo di determinare se i viaggiatori mentivano sulle ragioni del loro viaggio. Gli avatar interrogavano i viaggiatori su sé stessi e sul loro viaggio, mentre le webcam scansionavano i movimenti del viso e degli occhi. Ma un algoritmo di riconoscimento delle emozioni è ancor più problematico dei classici algoritmi di riconoscimento facciale, in quanto il modo in cui le persone comunicano varia moltissimo in base alla loro cultura ed alla situazione in cui si trovano. La capacità di qualcuno di rispondere a una domanda al confine potrebbe essere influenzata da un trauma, dalla sua personalità, dal modo in cui la domanda è inquadrata o dalle intenzioni percepite dell’intervistatore. Tecnologie come iBorderCtrl costituiscono, pertanto, un pericolo per i diritti fondamentali dei migranti, dei richiedenti asilo e di tutti i viaggiatori internazionali, non consentendone l’ingresso o trattenendoli sulla base della loro razza o etnia.