L’AI permea oramai la nostra vita ed è utilizzata in programmi sempre più pervasivi di sorveglianza di massa, che analizzano i data lake acquisiti attraverso droni, telecamere, nuovi dispositivi, piattaforme digitali e social di cui ci serviamo.
I sistemi estremi di controllo di massa, seppure oggi lontani dalla cultura europea, non sono da sottovalutare. Di fatto, è interessante analizzare quanto sta accadendo in Cina, così come in altri Paesi, anche per riflettere sugli effetti collaterali concreti che uno sviluppo incontrollato dell’AI può avere nella vita reale.
Sorveglianza di massa: dai droni ai social, così ci controllano
I dati dell’AI Global Surveillance Index
Il 6 giugno scorso è stato pubblicato dal Global Think Tank americano Carnegie Endowment for International Peace l’AI Global Surveillance (AIGS) Index.
Il report ha raccolto dati empirici, dal 2019 a marzo 2022, sull’uso dell’IA e dei big data per la sorveglianza in 179 paesi del mondo, per mostrare come stiano trasformando la capacità dei governi di monitorare e rintracciare individui o gruppi.
I risultati indicano che, rispetto al 2019, si è passati da 75 ad almeno 97 paesi su 179 che utilizzano attivamente l’IA e i big data per scopi di sorveglianza pubblica.
Precisamente:
• Piattaforme città intelligenti/città sicure: 64 paesi
• Sistemi pubblici di riconoscimento facciale: 78 paesi
• Polizia intelligente: 69 paesi
• Sorveglianza sui social media: 38 paesi
Come funziona la sorveglianza AI-based in Cina
È doveroso sottolineare che questo aumento di utilizzo di programmi di sorveglianza, negli ultimi due anni, è scaturito dalla pandemia e dalla necessità di monitorare la diffusione del contagio, soprattutto in Cina.
Ma è anche vero che la Cina sta investendo in tecnologia per controllare e monitorare i comportamenti di circa 1,4 miliardi di cinesi. Le telecamere sono ovunque: agli angoli delle strade e sui soffitti della metropolitana, nelle hall degli hotel e nei condomini, con la giustificazione di garantire la sicurezza dei cittadini.
In realtà, il sistema di monitoraggio traccia anche i telefoni, monitora gli acquisti e le chat online sono censurate per reprimere qualsiasi forma di protesta interna, a cominciare dalle minoranze e dagli oppositori che non si conformano al volere del governo.
Di fatto, la tecnologia basata sull’AI “scava” tra le grandi quantità di dati raccolti per trovare modelli e anomalie, prevedere crimini o proteste. Il risultato è che vengono presi di mira potenziali “piantagrane” agli occhi del governo, individui con un passato criminale e gruppi vulnerabili, lavoratori migranti e soggetti affetti da malattia mentale.
Da Carnegie Endowment for International Peace
Sorveglianza AI-based in Cina: alcuni esempi
Le nuove tecnologie cinesi, dettagliate negli appalti e in altri documenti esaminati recentemente dal New York Times, estendono ulteriormente i confini dei controlli sociali e politici e li integrano sempre più profondamente nella vita delle persone.
Negli ultimi dieci anni, il presidente cinese Xi Jinping ha esacerbato e centralizzato lo stato di sicurezza, attuando politiche tecno-autoritarie per sedare i disordini etnici e, più recentemente, far rispettare alcuni dei più severi blocchi del coronavirus del mondo. Ne consegue che lo spazio per il dissenso, sempre limitato, sta rapidamente scomparendo.
È doveroso evidenziare che, ultimamente, la Cina ha adottato un nuovo approccio alla sorveglianza che, in parte, si basa su un software di polizia che attinge a dati degli Stati Uniti e dell’Europa.
Tale tecnologia, secondo alcuni gruppi per i diritti umani, ha codificato quali quartieri devono essere maggiormente sorvegliati o per esempio quali prigionieri possono ottenere la libertà condizionale. I cittadini cinesi spesso non sanno di essere osservati e, d’altro canto, le autorità cinesi non richiedono alcun mandato per raccogliere informazioni personali dato che mirano a garantire una sorveglianza tecnologica che, in ogni caso – anche quando non riesce a dedurre il comportamento umano – inibisce disordini e crimini. Siamo di fronte ad una sorta di “gabbia invisibile” di tecnologia, imposta alla società da parte di un Governo sempre più invasivo.
Nel 2020, le autorità della Cina meridionale hanno negato la richiesta di una donna di trasferirsi a Hong Kong per stare con suo marito dopo che il software li ha avvisati che il matrimonio era sospetto, secondo quanto aveva riferito la polizia locale.
Un’indagine successiva ha rivelato che i due non erano spesso nello stesso posto allo stesso tempo e non avevano trascorso le vacanze del Festival di Primavera insieme. La polizia ha concluso che il matrimonio era stato simulato per ottenere un permesso di migrazione.
Nel 2022, la polizia di Tianjin ha acquistato il software Hikvision che mira a prevedere le proteste. Il sistema raccoglie dati su legioni di “firmatari” cinesi (i.e. un termine generale in Cina che descrive le persone che cercano di presentare denunce sui funzionari locali alle autorità superiori) che sono classificati in base alla probabilità che si rechino a Beijing.
In futuro, tali dati potrebbero essere utilizzati per addestrare modelli di apprendimento automatico – secondo quanto si evince da un documento di appalto a cui ha avuto accesso il NYTimes – in modo tale da impedire tali viaggi, per evitare imbarazzo politico o l’esposizione di illeciti e che gruppi di cittadini scontenti si riuniscano nella capitale.
Recentemente, a Shanghai, le autorità hanno utilizzato un software per identificare coloro che avevano superato il normale consumo di acqua ed elettricità. Il sistema invierebbe un “alert” alla polizia quando trova modelli di consumo sospetti, allo scopo di rilevare i lavoratori migranti, che spesso vivono insieme per risparmiare denaro e che sono considerati come gruppi “sfuggenti”, poveri e che possono trasformarsi in criminali.
AI-tocrazia: i legami tra capitalismo e Stati autoritari
Per sviluppare un robusto apparato di sorveglianza, le autocrazie sono costrette ad affidarsi a fornitori stranieri o a consentire agli imprenditori privati nazionali di entrare in un settore industriale strategico.
Il processo attraverso cui la Cina ha sviluppato uno stato di sorveglianza – che non esitiamo a definire di Polizia – guidato da società di sicurezza competitive a livello globale, è un esempio di questa dinamica capitalista autoritaria. La liberalizzazione ha permesso alle imprese nazionali di adattare la tecnologia straniera e infine di introdurre innovazioni nella sorveglianza digitale.
Interessante notare come i paesi autocrati traggono vantaggio dall’IA. Ovvero, i disordini locali portano a un maggiore utilizzo pubblico di IA di riconoscimento facciale e di IA per sopprimere i disordini stessi. Pertanto, l’innovazione dell’IA beneficia della soppressione dei disordini da parte degli autocrati, in quanto le aziende di IA contrattate innovano di più sia per il governo sia per i mercati commerciali.
Lo stato di sorveglianza della Cina poggia, di fatto, su forti legami pubblico-privato e la presunta alleanza tra capitalisti di sorveglianza e uno Stato dispotico ha sollevato dubbi sia in Italia sia in altri Paesi democratici liberali sull’utilizzo di telecamere, sistemi di sorveglianza e tecnologia Made in China.
Insomma, un’AI con un lato oscuro, in grado di minare le istituzioni democratiche, migliorare gli obiettivi di controllo sociale degli autocrati e limitare i cittadini conferendo potere ai “capitalisti della sorveglianza”.
Chi esporta l’IA per la sorveglianza
Da quanto si evince dal recente report “AI Global Surveillance Index” (AIGS) le aziende cinesi Huawei, Hikvision, Dahua e ZTE forniscono tecnologia di sorveglianza IA in più di sessantatré paesi, trentasei dei quali hanno aderito alla Belt and Road Initiative (BRI) cinese.
Huawei, da sola, è responsabile della fornitura della tecnologia di sorveglianza AI ad almeno cinquanta paesi in tutto il mondo.
Inoltre, le proposte di prodotti cinesi sono spesso accompagnate da prestiti agevolati per incoraggiare i governi ad acquistare le loro apparecchiature. Queste tattiche sono particolarmente diffuse in paesi come Kenya, Laos, Mongolia, Uganda e Uzbekistan, che altrimenti potrebbero non accedere a questa tecnologia.
Quanto appena descritto solleva interrogativi preoccupanti su come il governo cinese stia sovvenzionando l’acquisto di tecnologia repressiva avanzata nel tentativo di costruire un sistema digitale onniveggente di controllo sociale, sino a raggiungere la supremazia dell’IA entro il 2030.
Tuttavia, la Cina non è l’unico Paese a fornire tecnologie di sorveglianza avanzate in tutto il mondo: le società statunitensi forniscono la tecnologia di sorveglianza AI a più di trentadue paesi; inoltre, anche Paesi democratici liberali come Francia, Germania, Giappone ed Israele stanno giocando un ruolo importante nella diffusione di questa tecnologia.
Da Carnegie Endowment for International Peace
I rischi di un AI non regolamentata
Quanto sopra descritto non fa che confermare come il problema principale non sia l’IA in sé, ma il modo in cui le aziende o i governi si avvicinano ai dati e al loro utilizzo mediante tecnologia basata sull’AI.
L’attuale percorso dell’AI dà potere alle aziende a spese dei lavoratori e dei cittadini, e spesso fornisce anche strumenti aggiuntivi per il controllo ai governi per la sorveglianza e talvolta anche la repressione.
Pertanto, risulta evidente che gli attuali problemi dell’AI sono problemi o politicamente creati e programmati (nel qual caso più che problemi sono “sistemi”) o determinati da una mancata regolamentazione della tecnologia.
L’approccio europeo all’utilizzo di IA per la sorveglianza
È quanto mai urgente che nei paesi democratici la politica si adoperi per creare una regolamentazione sistemica di raccolta di dati ed evitare l’uso di nuove tecniche di AI per manipolare il comportamento degli utenti e la comunicazione online e lo scambio di informazioni attraverso un approccio normativo “precauzionale”.
Ne consegue che il processo di sviluppo dell’AI deve svolgersi all’interno di un framework di controllo sempre più risk-based.
È in questa direzione che l’Unione Europea si è mossa, scegliendo, in primis, un approccio rigoroso nella protezione dei dati attraverso l’approvazione nel 2018 del GDPR, direttamente applicabile da tutti i Paesi membri.
Senza dimenticare il voto negativo nel 2019 all’uso dell’AI nei sistemi di sorveglianza di massa. In quell’occasione è stata posta altresì una moratoria permanente sul riconoscimento automatizzato delle persone negli spazi pubblici e delle attività di polizia sulla base di dati comportamentali, fatta eccezione per il caso di sospetti su persone o atti criminogeni.
L’Unione Europea ha successivamente approvato, lo scorso febbraio 2020, un Libro Bianco in cui ha evidenziato la necessità di una regolamentazione europea dell’AI, a cui sono seguite risoluzioni del Parlamento Europeo in termini di: questione etica, responsabilità e proprietà intellettuale.
Le regolamentazioni dell’AI devono:
- mirare ad assicurare sicurezza, trasparenza, assunzione di responsabilità;
- evitare pregiudizi e discriminazioni;
- garantire responsabilità sociale ed ambientale;
- assicurare il rispetto dei diritti fondamentali.
A tal fine, l’Unione Europea ha presentato lo scorso aprile 2021 l’AI Act che dovrebbe essere definito entro la fine del 2022 proprio con l’intento di regolamentare l’AI in vari aspetti (i.e. prodotti, servizi e al mercato interno UE sempre secondo un approccio risk-based).
In questo modo si creerebbe un primo corpus legislativo che si propone di regolare una materia così ampia ed articolata come l’AI all’interno di un quadro legislativo che comprende anche il GDPR e il Data Act.
Conclusioni
Purtroppo, anche nel nostro Paese si sta diffondendo la convinzione che, per dimostrare di essere virtuosi, sia necessario che i cittadini si rendano completamente trasparenti verso lo Stato che, così facendo, rischia di trasformarsi in componenti di uno Stato Etico capace, volente o nolente, di avviare processi di omologazione e di attenuazione della nostra capacità di autodeterminazione.
Come afferma il teologo francescano Paolo Benanti, docente nell’Università Gregoriana, nel suo libro “Oracoli – tra algoretica ed algocrazia” – “oggi i dati offerti in modo sacrificale agli idoli dell’AI significano, cioè indicano, senza spiegare”.
Per cui, non ci resta che “tornare alla Polis greca, in cui far convergere i diversi saperi in cerca della verità.”
Ovvero, è quanto mai necessario uno sforzo collettivo, è il caso di dire, di intelligenza umana.