L’Europa si prepara a fronteggiare responsabilità, finora sottaciute, per lo sviluppo di tecnologie di sorveglianza.
- Il Parlamento Europeo e il Consiglio dell’Ue si prodigano per ultimare le fasi che dovrebbero condurre alla ratifica di un accordo (pendente dal 2018), contenente specifiche norme destinate ad innovare la disciplina dell’esportazione nei regimi extra europei di tecnologie di sorveglianza dual use (per scopi cioè sia civili che militari) foriere di utilizzi ambigui e penalizzanti per i diritti umani. Mossa che va nella direzione giusta ma, secondo molti osservatori, con eccessiva prudenza.
- Nello stesso tempo, Privacy International, l’Onu e Amnesty International, ciascuna con distinti studi di approfondimento, denunciano severamente e documentano copiosamente le azioni dell’Europa che favoriscono la cybersorveglianza nei paesi considerati “dispotici o parzialmente liberi”. Cina, ma non solo. Negli anni, la collaborazione dell’Ue con i Paesi limitrofi per il controllo delle migrazioni ha rafforzato i regimi autoritari, fornito un boom di profitti per le imprese della sicurezza e ai produttori di armamenti, distolto risorse dallo sviluppo e indebolito i diritti umani. Queste le conclusioni pesanti a cui giungono le organizzazioni in difesa dei diritti umani che chiedono pertanto alle istituzioni un monolitico stop all’uso delle tecnologie di sorveglianza, nell’attesa che si perfezionino le giuste premesse e le riforme normative attese.
- Avanza anche una risoluzione che vuole indebolire la crittografia per favorire le indagini di polizia.
L’accordo Parlamento-Consiglio dell’Ue su dual use: un debole passo avanti?
Nei giorni scorsi il Parlamento Europeo ha presentato le regole al vaglio dell’accordo sulla vendita e l’esportazione di tecnologie di sorveglianza informatica, come il riconoscimento facciale e lo spyware, che prevedono, tra le altre cose, che le aziende ottengano una determinata licenza per vendere tali prodotti all’estero e che i governi rendano pubblici i dettagli sulle licenze che concedono.
Un progetto di revisione e modifica, che intende porsi in ottica maggiormente rigorosa rispetto all’attuale panorama normativo di cui fa parte anche l’Accordo di Wassenaar (relativo ai controlli sull’esportazione di armi convenzionali e beni e tecnologie a duplice uso) che lega paesi come Argentina, Australia, Austria, Belgio, Bulgaria, Canada, Croazia, Repubblica Ceca , Danimarca, Estonia, Finlandia, Francia, Germania, Grecia, Ungheria, India, Irlanda, Italia, Giappone, Lettonia, Lituania, Lussemburgo, Malta, Messico, Paesi Bassi , Nuova Zelanda , Norvegia, Polonia, Portogallo, Repubblica di Corea , Romania, Federazione Russa , Slovacchia, Slovenia, Sud Africa , Spagna, Svezia, Svizzera, Turchia, Ucraina, Regno Unito e Stati Uniti).
“I paesi europei devono assicurarsi che i regimi autoritari come la Cina o la Russia non ricevano semplicemente la tecnologia più recente per il nostro profitto a breve termine. È stato dimostrato che copiano, rubano e usano questa tecnologia contro di noi e altri paesi democratici”, dichiara Markéta Gregorová, eurodeputata del Partito pirata ceco e relatrice del progetto di accordo.
Premesse severe che vengono ulteriormente sviluppate da Bernd Lange, eurodeputato tedesco, capo della delegazione negoziale: “Il rispetto dei diritti umani diventerà uno standard di esportazione. Il regolamento rivisto aggiorna i controlli sulle esportazioni europee e si adatta al progresso tecnologico, ai nuovi rischi per la sicurezza e alle informazioni sulle violazioni dei diritti umani. Si tratta di una pietra miliare dell’UE, poiché per la prima volta sono state concordate regole di esportazione per le tecnologie di sorveglianza. Gli interessi economici non devono avere la precedenza sui diritti umani.”
Tuttavia, ed è questo uno dei maggiori punti deboli nonché il nodo centrale cruciale per la messa a punto dei nuovi presidi legali (ancorché limitati ai soli Stati dell’UE), l’attuazione degli stessi viene rimessa all’iniziativa dei singoli governi nazionali, interpreti diretti dell’attuazione e della concreta portata prescrittiva dei nuovi paradigmi di legalità.
Nel frattempo, mentre in Europa e in Germania in modo particolare, fino a dicembre investita della presidenza del Consiglio dell’Unione europea, si auspica una celere approvazione del regolamento, in altre parti parte del mondo, in Israele per dirne una tra le più significative, certe problematiche non paiono ancora incidere minimamente sulle fiorenti esportazioni di tecnologie di sorveglianza.
Lo sanno bene gli avvocati di Amnesty International ed i funzionari ONU, non a caso del tutto ignorati dallo Stato di Netanyahu e Gantz quanto alle rispettive “richieste” di moratoria e revoca sulla vendita, il trasferimento e l’esportazione di spyware in tutto il mondo.
Le denunce contro l’Europa delle maggiori organizzazioni internazionali
Il Rapporto “Racial discrimination and emerging digital technologies: a human rights analysis” della Relatrice Speciale ONU Tendayi Achiume.
L’Onu, per il tramite della sua Relatrice su razzismo, discriminazione razziale, xenofobia e intolleranza, Tendayi Achiume, sollecita severamente un’urgente moratoria globale sulla vendita, il trasferimento e l’uso della tecnologia di sorveglianza, almeno fino a quando non saranno in atto solide garanzie per il rispetto dei diritti umani al centro della regolamentazione di tali pratiche.
La richiesta è chiaramente motivata e dettagliata nel Rapporto pubblicato a luglio 2020 che approfondisce e raccoglie le preoccupazioni palesate anche da diverse organizzazioni di attivisti e, tra queste, da Electronic Frontier Foundation – EFF, il cui studio testimonia nello specifico gli impatti negativi della sorveglianza di massa sulle comunità vulnerabili al confine degli Stati Uniti.
“La tecnologia non è neutrale o oggettiva“, riferisce Achiume, al Consiglio dei diritti umani delle Nazioni Unite a Ginevra. “È fondamentalmente modellata sulle disuguaglianze razziali, etniche, di genere e di altro tipo prevalenti nella società che tipicamente peggiorano queste disuguaglianze. Ne risultano discriminazioni e disparità di trattamento in tutti i settori della vita, dall’istruzione e dall’occupazione alla sanità e alla giustizia penale “.
Molti gli esempi di discriminazione razziale nella progettazione e l’uso delle tecnologie digitali approfonditi nello studio:
- oltre ai riferimenti a “Covi-Pass“, il passaporto sanitario sviluppato da Mastercard e Gavi, destinato all’Africa occidentale e al controllo degli spostamenti “dei rifugiati”,
- anche le applicazioni di riconoscimento facciale in Kenya e India per l’accesso ai servizi pubblici, noti rispettivamente come Huduma Namba e Aadhaar,
- e ancora, la raccolta obbligatoria di dati biometrici, inclusi campioni di DNA e scansioni dell’iride , per gli uiguri in Cina,
- gli abusi, perpetrati per il tramite delle piattaforme social, da parte di gruppi buddisti nazionalisti radicali e attori militari in Myanmar per esacerbare la discriminazione e la violenza contro i musulmani e la minoranza etnica Rohingya,
- e, altresì, i vari bot operanti sui social media che, nel 2019, pubblicavano argomenti disinformativi e fuorvianti relativi all’immigrazione e all’Islam.
Centrale nel rapporto Onu il richiamo alle esigenze di maggiore rappresentanza da garantire alle minoranze etniche nel processo decisionale algoritmico e la chiara definizione delle responsabilità collegate all’uso delle applicazioni di intelligenza artificiale biometrica: “Per prevenire ed eliminare la discriminazione razziale nella progettazione tecnologica sarà necessario avere più minoranze razziali ed etniche. Gli Stati devono anche fornire l’intero spettro di rimedi efficaci per coloro contro i quali le tecnologie digitali emergenti hanno discriminato razzialmente”.
“Ciò include la responsabilità per la discriminazione razziale e i risarcimenti agli individui e alle comunità colpite. Come dimostrano le recenti iniziative volte a vietare le tecnologie di riconoscimento facciale in alcune parti del mondo, in alcuni casi l’effetto discriminatorio delle tecnologie digitali richiederà il loro divieto assoluto”.
Tra i destinatari del pesante monito rientrano a pieno titolo anche le agenzie umanitarie sempre più coinvolte nell’utilizzo delle forme di bio-sorveglianza. Prima fra tutte l’Agenzia delle Nazioni Unite per i rifugiati (UNHCR) che in Afghanistan richiede ai rifugiati che rimpatriano di sottoporsi alla registrazione dell’iride come prerequisito per ricevere assistenza, senza però adeguatamente motivare e presidiare una tale invasiva raccolta.
Stesse preoccupazioni per il Programma alimentare mondiale delle Nazioni Unite che nel 2019 ha collaborato con Palantir Technologies, la nota società di data mining, condividendo i dati di 92 milioni di beneficiari di aiuti economici.
“La raccolta dei dati non è un esercizio apolitico”, osserva il rapporto di Achiume, “specialmente quando potenti attori del nord globale raccolgono informazioni su popolazioni vulnerabili senza metodi regolamentati di supervisione e responsabilità”.
In quanto “tecnologie di classificazione che differenziano, classificano e categorizzano”, i sistemi di intelligenza artificiale sono al centro dei “sistemi di discriminazione”.
E, certo, l’attuale pandemia Covid-19 non può che aver contribuito in tal senso, accelerando il recepimento delle varie forme “biosorveglianza”, incentrate sul monitoraggio dei movimenti e della salute delle persone.
Stesso epilogo per l’interessante studio, di cui si consiglia la lettura, parte del progetto Onu di Achiume, intitolato Technological Testing Grounds e sviluppato da Petra Molna, una delle autrici del rapporto e ricercatrice di tecnologia e diritti umani presso IHRP, in collaborazione con Edri, Statewatch, Privacy International e Homo Digitalis.
Il rapporto di Amnesty International
A settembre anche Amnesty International, auspicando il divieto assoluto dell’uso indiscriminato delle tecnologie di riconoscimento facciale, diffonde un rapporto in cui rende evidente come tre aziende europee con sede in Francia, Svezia e Paesi Bassi abbiano venduto sistemi di sorveglianza ad agenzie di sicurezza cinesi coinvolte nelle violazioni dei diritti umani. Il caso più conosciuto è quello che riguarda la minoranza musulmana uiguri nella regione dello Xinjiang. E il riferimento è rispettivamente a Morpho (ora Idemia), Axis Communications e Noldus Information.
La denuncia di Privacy International
Ma tra tutti il rapporto che ha destato il rumore maggiore, per l’ampiezza e specificità delle denunce (tutte documentate) è senza dubbio quello pubblicato il 10 novembre scorso da Privacy International.
Privacy International e altre tredici organizzazioni di attivisti sia europee che africane, sollecitano duramente l’Unione Europea affinché attui, senza ulteriori indugi, riforme urgenti incidenti sulla disciplina normativa relativa agli aiuti allo sviluppo e ai programmi di cooperazione.
Tanto, a maggior ragione dopo le rivelazioni contenute nei copiosi report pubblicati in questi giorni dall’organizzazione per i diritti umani che convalidano la gravità delle situazioni collegate all’uso delle tecnologie biometriche destinate ad addestrare e dotare le forze di sicurezza.
Molte le organizzazioni europee coinvolte nelle recriminazioni: dall’Agenzia di frontiera Frontex al Servizio europeo per l’azione esterna, dal Fondo fiduciario dell’UE per l’Africa all’Agenzia dell’Unione europea per la formazione delle forze dell’ordine (CEPOL) e all’EUROPOL; comprese le istanze di chiarimento rivolte all’EDPS quanto all’Opinion 2/2018 relativa agli otto mandati negoziali volti alla conclusione di accordi internazionale che consentirebbero lo scambio di dati tra Europol e paesi terzi.
La risoluzione UE per aggirare la crittografia che protegge la riservatezza dei dati
Le responsabilità europee in merito alla sorveglianza di massa potrebbero persino aumentare.
Orf, l’emittente austriaca ha reso noto nei giorni scorsi un documento, che sembrerebbe scritto dal governo tedesco e rivolto agli altri paesi del Consiglio europeo, pensato dopo gli ultimi attentati islamisti, in base al quale il Consiglio dell’Unione europea starebbe cercando di approvare una Risoluzione per aggirare la crittografia end to end e accedere ai dispositivi elettronici personali delle persone.
Il documento spinge quindi per l’adozione di “soluzioni tecniche per ottenere l’accesso ai dati crittografati”, identificate in accordo con gli operatori di comunicazione. Non entra nel dettaglio delle soluzioni, ma l’obiettivo è consentire alle forze dell’ordine di accedere comunque ai dati, nonostante la crittografia.
La ragione sarebbe il giusto bilanciamento tra le istanze di riservatezza a protezione dei diritti fondamentali e le esigenze di sicurezza e giustizia penale di cui sono investite le autorità competenti.
“Le forze dell’ordine dipendono sempre più dall’accesso alle prove elettroniche per combattere efficacemente il terrorismo, la criminalità organizzata, gli abusi sessuali sui minori (in particolare i suoi aspetti online), così come una varietà di crimini abilitati dal cyber. Per le autorità competenti, l’accesso alle prove elettroniche non è solo essenziale per condurre le indagini con successo e quindi assicurare i criminali alla giustizia, ma anche per proteggere le vittime e contribuire a garantire la sicurezza.”
Si legge nel documento che, quindi, prosegue: “sebbene la crittografia sia un mezzo necessario per proteggere i diritti fondamentali e la sicurezza digitale dei governi, dell’industria e della società, e perciò stesso dovrebbe essere promossa e sviluppata, tuttavia l’Unione europea deve comunque sempre “garantire anche la capacità delle autorità competenti nel settore della sicurezza e della giustizia penale […] di esercitare i propri poteri legali, sia online che offline”.
È noto che le comunicazioni internet sono sempre più spesso criptate di default, ad esempio nelle varie chat come Whatsapp, Telegram, e criptato è sempre più spesso il traffico internet, come reazione allo scandalo delle intercettazioni di massa NSA.
E’ probabile che, salvo imprevisti e integrazioni, la risoluzione verrà adottata entro la fine del mese di novembre dal Comitato permanente per la cooperazione operativa in materia di sicurezza interna (COSI) e quindi presentata al Comitato dei Rappresentanti permanenti dei governi degli Stati membri dell’Unione europea (COREPER), fino al Consiglio e dunque al Parlamento UE.
I rischi
Ai più attenti non sarà certo sfuggita la vicinanza della portata del testo – ancorché non definitivo – della risoluzione con la dichiarazione sottoscritta ad ottobre scorso dall’alleanza anglofona Five Eyes (il sodalizio tra agenzie di intelligence che lega Stati Uniti, Gran Bretagna, Canada, Australia e Nuova Zelanda), oltre a Giappone ed India, che rilancia la richiesta di inserire delle backdoor nei sistemi di crittografia a disposizione delle autorità competenti.
“Particolari implementazioni della tecnologia di crittografia pongono grossi ostacoli alle indagini delle forze dell’ordine, in particolar modo per il fatto che le stesse piattaforme tecnologiche non possono accedere alle comunicazioni ospitate sui loro canali di comunicazione e, di conseguenza, non sono in grado di fornire i dati necessari agli investigatori. Chiediamo alle aziende tecnologiche di collaborare con i governi per intraprendere i passi suggeriti, concentrandosi su soluzioni ragionevoli e tecnicamente fattibili”. Recita la dichiarazione, e il richiamo è certamente rivolto a Signal, Telegram, FaceBook Messenger e WhatsApp.
Sulla stessa scia anche le sollecitazioni contenute in una lettera del coordinatore UE dell’antiterrorismo, il belga Gilles de Kerchove, rivelate da NetzPolitik.org che addirittura vorrebbe che la regolamentazione della crittografia potesse essere parte dei negoziati in corso sul Digital Services Act.
La partita è dunque aperta anche sul fronte della crittografia end-to-end ed è piuttosto immediato attendersi solerti e credo giustificate reazioni di protesta da parte delle organizzazioni per i diritti umani e non solo. Access Now, Article19 e decine di altre ong, raggruppate nella sigla Edri (European Digital Rights), hanno già scritto una lettera alla presidenza tedesca.
Africa e Balcani
Uno dei fronti di accusa più caldi coinvolge le regioni africane e dei Balcani. A cominciare dall’addestramento della polizia algerina sul monitoraggio dei social media, alla creazione di finti profili, fino alle applicazioni di localizzazione del telefono, compreso il ricevitore Imsi-catcher che consente il monitoraggio segreto del cellulare.
Sin dal 2018 il Niger avrebbe beneficiato di non meno di 11,5 milioni di euro (13 milioni di dollari) stanziati dal Fondo fiduciario dell’UE per l’Africa destinati all’acquisto di droni di sorveglianza, telecamere e software per rafforzare i controlli sulla migrazione, oltre a vere e proprie sessioni di training e formazione a vantaggio degli ufficiali algerini e degli agenti marocchini. Tanto rivela il rapporto Privacy International, comprovando le proprie affermazioni con eloquenti documenti dell’UE ottenuti a seguito di dieci istanze di accesso formalmente presentate dal settembre 2019 agli organi dell’UE.
Oltre al Niger emergono coinvolgimenti anche con le autorità dei Balcani, del Medio Oriente e del Nord Africa impegnate in “tecniche controverse di sorveglianza telefonica e Internet”.
In “Borders Without Borders: How the EU is Exporting Surveillance in Bid to outsourcing its Border Controls”, PI evidenzia come oltre ai sistemi di identificazione e di intercettazione degli abbonati mobili, i dispositivi biometrici di impronte digitali venduti da NEC (leader mondiale nel campo dell’autenticazione biometrica, fornisce sistemi IT e sistemi di rete a governi locali, istituzioni mediche, società di energia elettrica e altri, gestisce filiali in tutto il Giappone ed è diretta da Takashi Niino ed ha sede in Giappone) alle autorità in Bosnia-Erzegovina facciano parte della stessa policy di cooperazione europea riscontrata in Niger.
E dunque sono vari i finanziamenti erogati dall’UE e impiegati per l’implementazione di un sistema di intercettazione telefonica in Bosnia che sembrerebbe essere supportato dal gigante tecnologico svedese Ericsson in collaborazione con l’Agenzia statale per le indagini e la protezione (SIPA), e di applicazioni di identificazione biometrica in Costa d’Avorio e Senegal volte a favorire il rimpatrio dei migranti dall’Europa.
Non da meno il sistema di controllo video intelligente automatizzato finanziato e installato al confine tra Ucraina e Bielorussia. E altri altrettanto interessanti disponibili per un approfondito esame al seguente link.
Il ruolo dell’Agenzia della formazione europea delle forze dell’ordine (Cepol)
In modo particolare emerge il ruolo centrale svolto l’Agenzia dell’Unione europea per la formazione delle forze dell’ordine (CEPOL) con sede in Ungheria che dal 2006 opera come agenzia ufficiale dell’UE responsabile dello sviluppo, dell’attuazione e del coordinamento della formazione per i funzionari delle forze dell’ordine provenienti da tutta l’UE e non.
Forte di un budget che da 5 milioni è salito a oltre 9,3 milioni di euro, l’Agenzia avrebbe dispensato piani di training che spaziano dall’antiterrorismo, alla criminalità informatica, alle tecniche di cybersorveglianza, offrendo la propria formale collaborazione alle autorità di Algeria, Giordania, Libano, Marocco, Tunisia e Turchia.
I corsi di formazione praticati dall’Agenzia europea, ritenuti “pericolosamente controversi” si riferiscono in modo specifico alle tematiche legate alle tecniche di analisi di Open Source Intelligence con tanto di test pratici sull’identificazione delle informazioni su varie piattaforme.
A tal riguardo, le diapositive allegate nel report PI sono molto eloquenti.
Tra queste ci sono quelle che promuovono strumenti di hacking per iPhone come GrayKey in combinato con Axiom, un’applicazione realizzata dal partner della polizia canadese, Magnet Forensics, che sembrerebbe in grado di afferrare il portachiavi Apple dall’interno dell’iPhone, rendendo disponibili l’accesso alle app e ai dati all’interno.
Riprenditi la faccia, la campagna internazionale (e italiana) sul riconoscimento facciale
In Europa, come cornice agli addebiti promossi dai report esaminati, il movimento europeo ReclaimYourFace lancia la campagna che accoglie le richieste di moratoria avanzate dalle organizzazioni in difesa dei diritti umani e chiede che i governi diano spiegazioni sulle ragioni dietro l’adozione di tecnologie col riconoscimento facciale. Le petizioni sostenute in varie nazioni, in Italia vengono condotte dall’associazione Hermes: “Chiediamo trasparenza su dove e come queste tecnologie vengono utilizzate e la possibilità di esprimere la nostra opposizione a questa tecnologia distopica.
Come coalizione intereuropea della società civile e della popolazione, chiediamo ai nostri paesi di rivelare e rifiutare l’uso della sorveglianza biometrica che potrebbe avere un impatto sui nostri diritti e sulle nostre libertà nei nostri spazi pubblici. Chiediamo al Garante di monitorare l’uso di sistemi di riconoscimento biometrico da parte dei comuni italiani; chiediamo al Garante di chiudere nel più breve tempo possibile l’istruttoria aperta ormai da due anni sul sistema SARI Real-Time e sospendere il sistema; chiediamo ai comuni di Torino e di Udine di pubblicare la valutazione d’impatto sulla privacy (DPIA) dei sistemi biometrici che hanno intenzione di installare; chiediamo al Ministero dell’Interno di pubblicare tutte le valutazioni degli algoritmi utilizzati, dei numeri sull’utilizzo del sistema, e di tutti i dati relativi alla tipologia di volti presenti nel database usato da SARI; chiediamo a tutte le città metropolitane di impegnarsi a sospendere ogni eventuale progetto di riconoscimento facciale/biometrico avviato e vietare l’introduzione di tali tecnologie nel contesto pubblico cittadino”.
Il ruolo dell’Agenzia europea della guardia di frontiera e costiera (Frontex)
L’Unione europea da sempre si rivela come uno dei principali donatori mondiali di aiuti pubblici allo sviluppo (sono 75,2 i miliardi di euro erogati nel 2019).
Secondo le risultanze ottenute da Privacy International tanto si tradurrebbe in una sorta di influenza economica, diplomatica e di sicurezza in grado di favorire il controllo politico e il monitoraggio delle frontiere per fini di sorveglianza di intere popolazioni, attivisti, giornalisti e movimenti di opposizione.
Emerge in particolare in tale frangente del report di PI anche il ruolo dello Stato italiano alla guida del programma finanziato dal Fondo fiduciario dell’UE per l’Africa, che prevede la formazione e l’equipaggiamento delle autorità libiche.
Un documento del 2018, esaminato da Privacy International, descrive in dettaglio la formazione, fornita dall’agenzia europea di controllo delle frontiere Frontex all’Amministrazione generale per la sicurezza costiera (GACS) della Libia.
I documenti ottenuti renderebbero evidente come Frontex (peraltro già sotto i riflettori per le accuse di complicità in respingimenti illegali e spesso pericolosi volti a impedire ai richiedenti asilo di attraversare il Mar Egeo), impegnata sui diversi confini, abbia insegnato ai partecipanti varie tecniche su come mettere al sicuro determinate “prove a fini giudiziari e di intelligence”, o come acquisire le impronte digitali, anche da “bambini e persone con vulnerabilità”, nonché “tecniche di autodifesa di base destinate all’occorrenza ad essere utilizzate durante l’arresto dei sospetti a bordo, compreso l’uso della forza e le sue limitazioni”.
Questo il rimando all’approfondimento presente nelle pagine web di Privacyinternational.org:
Il ruolo di Civipol nel contesto del progetto UE in Senegal
Stando al report di PI, Civipol, l’agenzia francese impegnata in specifiche aree di competenza tra cui sicurezza, controllo delle migrazioni e protezione civile, avrebbe contribuito, nel 2017, alla creazione di un fumoso sistema biometrico di massa, realizzato grazie a fondi di aiuti provenienti dall’UE e destinati al territorio dell’ Africa occidentale, Senegal nel caso specifico, per fermare la migrazione e facilitare le deportazioni.
Obiettivo dichiarato dell’ambizioso progetto risulterebbe essere “quello di contribuire nel rispetto diritti individuali legati al riconoscimento della propria identità migliorando il sistema di informazioni sullo stato civile e il consolidamento di un fascicolo di identità biometrica nazionale”. Tuttavia, secondo i ricercatori di PI il contesto nel quale un tale piano di digitalizzazione verrebbe realizzato non considera adeguatamente le peculiarità insite nello specifico territorio alla luce dei quadri regolatori applicabili e il rispetto dei principi alla base delle normative di protezione dei dati e delle libertà fondamentali. Principio di trasparenza e correttezza in primis. Nessuna valutazione d’impatto avrebbe, in modo particolare, preceduto l’implementazione della relativa tecnologia.
Tecnologia che si presenta fortemente invasiva comportando l’acquisizione di numerosi set di dati personali tra cui, oltre ovviamente a nomi e date di nascita, anche impronte digitali, scansioni del viso o dell’iride.
Oltre al Senegal e a Civipol, i finanziamenti del Fondo fiduciario dell’UE per l’Africa (istituito sulla scia della “crisi migratoria” del 2015 in Europa), esaminati grazie ai riscontri ottenuti da PI alle richieste di accesso, diretti allo sviluppo di sistemi di identificazione biometrica, hanno riguardato direttamente anche Costa d’Avorio e l’agenzia di sviluppo e cooperazione internazionale belga, Enabel.
I sistemi biometrici nel mondo per la sorveglianza
Le rivelazioni dei report esaminati non sono che uno spaccato della dimensione globale dei progetti nazionali di identità digitale che coinvolgono la biometria e le sue “infinite praterie”.
- Thales e Augentic-INCM si preparano ad operare con le loro “soluzioni biometriche” in Svezia e Camerun.
- Idemia, Mühlbauer, HID Global e Aisino Corporation in Nepal.
- Il Pan-Canadian Trust Framework è stato ufficialmente lanciato.
- In Africa, oltre alla Nigeria, il Ghana considera l’utilizzo della Ghana Card per i servizi sanitari.
- Augentic e INCM, in Camerun supporteranno lo sviluppo di passaporti digitali per i controlli biometrici alle frontiere.
- Anche l’industria aeronautica con Idemia pensa al TravelKiosk, l’applicazione biometrica che include lo screening COVID-19 e altre funzioni contactless.
- Altrettanto Experian che promuove la biometria comportamentale Biocatch, aggiungendo l’autenticazione facciale Onfido per l’onboarding.
- Singapore sarà il primo paese al mondo a utilizzare la verifica facciale nel proprio schema di identità nazionale ed è supportato nei suoi piani da società tecnologiche britanniche.
- Mosca, con oltre 105.000 telecamere, vanta uno dei sistemi di videosorveglianza e riconoscimento facciale più completi al mondo.
- E non restano certo indietro il Regno Unito, da tempo uscito dalla fase delle sperimentazioni.
- Allo stesso modo Germania e Francia dove Nizza viene descritta come “il laboratorio del riconoscimento facciale”.
- Svezia e Italia, anch’esse sul carro dei sostenitori del riconoscimento facciale.
Un panorama dalle infinite praterie.
Addirittura, Andrew Maximov, tecnologo bielorusso residente negli Stati Uniti, ha pubblicato su YouTube un video in cui spiega come il software che sta sviluppando permetta il riconoscimento facciale dei poliziotti che da mesi, sostiene, usano violenza contro i manifestanti anti-Lukashenko.
Sempre in Francia, Paolo Cirio, l’artista e attivista italiano, professore in un’università francese ha lanciato una provocazione con il progetto sul tema della sorveglianza e del riconoscimento facciale da cui è nata l’applicazione Capture Police, una collezione di immagini raffiguranti volti di poliziotti francesi: un database di 4000 immagini raffiguranti 1000 volti pubblicati su un sito correlati (benché senza uso di algoritmi) con altrettante informazioni identificative.
Vice, in relazione a tanto, pubblica un’intervista interessante resa da Paolo Cirio.
E questi sono alcuni degli sviluppi più evidenti.
Conclusioni
Il nuovo “panottico” è digitale. Ce lo ha già raccontato anche Shoshana Zuboff nel suo ultimo libro “The age of surveillance capitalism”.
Iride, retina, palmo, volto, vene, orecchio, voce, andatura. E ovviamente impronte delle dita. I sistemi biometrici sono sempre più protagonisti della dimensione sociale. I principali fornitori di riconoscimento facciale includono Accenture, Aware, BioID, Certibio, Fujitsu, Fulcrum Biometrics, Gemalto, HYPR, Idemia, Leidos, M2SYS, NEC, Nuance, Phonexia e Smilepass. Molti sono europei, altri si profilano all’orizzonte.
Il riconoscimento facciale è sedimentato e certo “ben sovvenzionato” da tempo. In Europa, Cina e ovunque: in Florida, l’ufficio dello sceriffo della contea di Pinellas (PCSO) gestisce uno dei più grandi database di riconoscimento facciale in America.
Eppure la tecnologia mostra ancora carenze gravemente allarmanti. I maggiori problemi si concentrano sulle sperimentazioni dei sistemi biometrici di riconoscimento e sorveglianza da parte della polizia e altre autorità specie militari. Negli usi asserviti ai governi autoritari. Ma tanto non esaurisce l’ampia portata dei possibili abusi e discriminazioni ai quali certe applicazioni si prestano.
Patrick Grother, figura di spicco alla guida dei test del NIST, illustrando le risultanze dello studio pubblicato nel 2019 ha evidenziato come alcuni algoritmi manifestino maggiori probabilità di identificare erroneamente individui afroamericani o asiatici rispetto ai maschi bianchi “con fattori da 10 a oltre 100 volte”.
E anche Kate Crawford e Trevor Paglen nel loro saggio sul progetto, “Excavating AI: The Politics of Images in Machine Learning Training Sets”(2019) ce ne hanno fornito un’esauriente spiegazione.
E dunque, se gli algoritmi non sono neutrali imparziali ed oggettivi e molto difficilmente le loro implementazioni potranno tradursi in mere scelte amministrative, di ordine pubblico e sicurezza nazionale o di business, perché si continuano a tollerare e favorire scelte “politiche” che prestano il fianco alle ambizioni degli stati dispotici o anche democratici primattori dei diversi approcci di sorveglianza a diretto vantaggio dello sfruttamento commerciale e governativo a scapito dei diritti umani?
La risposta a questa domanda è complessa e non conforta: probabilmente ciò è dovuto alla mancanza di interpreti autorevoli e di approcci globali e solidali, entrambi espressione di “alta politica”.
È certamente una questione di alta politica e quindi di persone il successo che certe scelte, anche di natura regolamentare, saranno in grado di determinare rispetto alle evoluzioni sociali in corso e alla dimensione orizzontale dei poteri privati forti.
I soli adeguamenti normativi, sebbene necessari, non basteranno a garantire trasparenza e correttezza. Ugualmente non saranno sufficienti le pronunce delle alte Corti per definire precisi ambiti di responsabilità e, neppure i progressi tecnologici, tesi ad abbattere il margine di fallacia dei processi algoritmici, potranno arginare adeguatamente i rischi di discriminazione. E in tutto questo in tanti continueranno a “fidarsi supinamente” degli (ab)usi promossi da queste tecnologie, vittime di un approccio incauto che rende la sorveglianza parte integrante e naturale del panorama contemporaneo.
“L’UE dovrebbe essere un promotore dei diritti, non un abilitatore delle pratiche di certi governi destinate ad indebolirne la promozione”, si legge nella lettera di PI indirizzata ai commissari europei Josep Borrell Fontelles, Věra Jourová, Jutta Urpilainen e Olivér Várhelyi, firmata, tra gli altri, dall’African Freedom of Expression Exchange, ECNL | European Center for Not-For-Profit Law, Associazione Ricreativa e Culturale Italiana (ARCI) e Human Rights 360.
“Invece di aiutare le persone che affrontano minacce quotidiane da agenzie di sorveglianza irresponsabili, inclusi attivisti, giornalisti e persone che cercano solo una vita migliore, questo “aiuto” rischia di fare l’esatto contrario”, denuncia Edin Omanovic Advocacy Director di Privacy International, che non ha mancato neppure di sollecitare la doverosa attenzione verso la dirompente ondata di sorveglianza conseguente alla crisi epidemiologica in corso: “L’ondata di sorveglianza che stiamo vedendo è davvero senza precedenti, superando persino il modo in cui i governi di tutto il mondo hanno risposto all’11 settembre. Sarebbe incredibilmente miope consentire agli sforzi per salvare vite umane di distruggere invece le nostre società”.
E dunque ampio spazio all’alta politica, semmai ancora ve ne fosse: che rivela l’arte dei migliori, in grado di esprimere un pensiero politico fluido e di lungo respiro capace di generare una cultura in grado potenziare valori radicati ed impregnati di umanità così da fornire adeguate risposte ai sonori biasimi sollevati.