L’escalation della competizione tra Cina e gli Stati Uniti è un importante ostacolo al raggiungimento di un sistema di regole che “imbrigli” – in senso positivo – l’Intelligenza Artificiale a livello globale e rischia di compromettere gli sforzi di diversi paesi – come Francia, Canada e Giappone – per creare un panel intergovernativo sull’Intelligenza Artificiale, e successivamente una partnership globale.
Il recente approccio europeo sull’Intelligenza Artificiale sembra però essere guidato dalla convinzione che l’Unione Europea possa ancora competere in molti campi – tra cui Edge Computing e memorizzazione dei dati “decentralizzata” – il tutto con il vantaggio dovuto dal possesso di alcune tecnologie chiave.
Facciamo il punto sulla strategia Ue, che potrebbe – auspicabilmente – portare il vecchio continente a diventare un riferimento normativo a livello globale, come è già accaduto col Gdpr nell’ambito della protezione dei dati personali.
La strategia europea in materia di Intelligenza Artificiale
L’Unione Europea ha iniziato il suo dibattito sull’Intelligenza Artificiale nel 2017 in modo piuttosto distopico, con la risoluzione del Parlamento Europeo sulla robotica, che prevedeva la nascita di robot intelligenti autonomi e evocava la necessità di attribuire diritti e doveri a queste nuove entità giuridiche. La stessa risoluzione invitava anche la Commissione Europea a considerare la creazione di un’agenzia per l’Intelligenza Artificiale e a stabilire un quadro politico globale per mitigare i rischi di questa potente tecnologia. A causa della sua attenzione quasi esclusiva per i rischi dell’Intelligenza Artificiale, la posizione del Parlamento Europeo pur suscitando una reazione molto critica da parte della comunità scientifica, ha quantomeno posto l’Intelligenza Artificiale sul “radar” della politica europea.
Pochi mesi dopo, anche il Consiglio Europeo entrò in campo per affrontare la tematica dell’Intelligenza Artificiale. La strategia della Commissione Europea è stata ufficialmente lanciata con l’adozione di una comunicazione nell’aprile 2018. La comunicazione, pubblicata parallelamente alle proposte della Commissione sulla creazione di uno “spazio comune europeo dei dati”, ha adottato una posizione positiva nei confronti dell’Intelligenza Artificiale rispetto alla risoluzione iniziale del Parlamento Europeo. L’assunto principale alla base della strategia è che l’Europa “può essere all’avanguardia nello sviluppo e nell’utilizzo dell’Intelligenza Artificiale per il bene di tutti, basandosi sui suoi valori e sui suoi punti di forza”. Questi punti di forza, ha suggerito la Commissione, comprendono: ricercatori, laboratori e start-up di livello mondiale; la robotica e le industrie leader a livello mondiale (soprattutto nei trasporti, nella sanità e nella produzione); il mercato unico digitale; e una “ricchezza di dati industriali, di ricerca e del settore pubblico che possono essere sbloccati per alimentare i sistemi di Intelligenza Artificiale”.
L’assunto principale che l’Europa possa far da guida in questo settore è stato accompagnato da tre impegni distinti, ma complementari:
- aumentare gli investimenti a un livello che corrisponda al peso economico dell’Unione Europea;
- non lasciare nessuno indietro – in particolare per quanto riguarda l’istruzione – e garantire una transizione fluida verso l’era dell’Intelligenza Artificiale sul posto di lavoro;
- garantire che le nuove tecnologie riflettano i “valori” europei.
Rispetto a quest’ultimo impegno, la Commissione Europea ha fatto esplicito riferimento al GDPR che all’epoca non era ancora entrato in vigore, nonché all’articolo 2 del Trattato sull’Unione Europea (TUE), che elenca i valori fondanti dell’Unione: il rispetto della dignità umana, della libertà, della democrazia, dell’uguaglianza, dello Stato di diritto e del rispetto dei diritti umani, compresi i diritti delle persone appartenenti a minoranze.
Esperti, Linee guida e Raccomandazioni
La comunicazione della Commissione Europea annunciava inoltre l’adozione di una serie di iniziative sull’Intelligenza Artificiale, tra cui la creazione di un gruppo di esperti di alto livello denominato AI HLEG[1], nonché il lancio di una AI Alliance, che ha rapidamente attratto membri della società civile, dell’industria e del mondo accademico (oltre 4.200 al 15 maggio 2020). Ai 52 esperti di AI HLEG è stato chiesto di elaborare una serie di linee guida etiche, pubblicate nell’aprile 2019, e di formulare raccomandazioni politiche e di investimento, che sono state presentate nel giugno 2019.
Le raccomandazioni dell’AI HLEG hanno influenzato in modo significativo le istituzioni dell’Unione Europea. In particolare, le linee guida etiche hanno introdotto il concetto di “intelligenza artificiale affidabile“. Ciò richiedeva che l’Intelligenza Artificiale soddisfacesse tre requisiti cumulativi: conformità legale, allineamento etico e robustezza sociotecnica (ad esempio, in termini di sicurezza, protezione e affidabilità). Le linee guida hanno rappresentato un passo avanti rispetto ai principi etici precedentemente adottati da molte aziende, governi (ad esempio, la Dichiarazione di Montreal), o ONG (come la Dichiarazione di Toronto redatta da Amnesty International e Access Now), a causa, in particolare, dei loro riferimenti alla conformità legale, insieme a potenziali mezzi di verifica e applicazione.
AI HLEG ha osservato che qualsiasi approccio “umanocentrico” all’Intelligenza Artificiale richiede il rispetto dei diritti fondamentali, indipendentemente dal fatto che questi siano o meno esplicitamente protetti dai trattati dell’Unione Europea, come il Trattato sull’Unione Europea (TUE) o la Carta dei Diritti Fondamentali dell’Unione Europea. Gli esperti hanno sostenuto, ad esempio, che questi diritti non considerano gli esseri umani come “oggetti da setacciare, ordinare, segnare, radunare, ammassare, condizionare o manipolare”. Inoltre, hanno suggerito, l’impegno dell’Unione Europea verso nozioni quali “rispetto dell’uguaglianza, non discriminazione e solidarietà”. Nozioni che richiedono un’Intelligenza Artificiale che non produca nuove disuguaglianze, specialmente quelle che potrebbero avere effetti negativi su “lavoratori, donne, persone con disabilità, minoranze etniche, bambini, consumatori o altri a rischio di esclusione”. Le linee guida hanno identificato quattro principi chiave (definiti come “imperativi” etici) per un’Intelligenza Artificiale affidabile:
- il rispetto dell’autonomia umana,
- la prevenzione del danno,
- l’equità,
- la “esplicitabilità” (cioè, le informazioni utilizzate e il processo seguito dai sistemi di Intelligenza Artificiale per raggiungere particolari risultati o decisioni deve essere il più trasparente e tracciabile possibile per le persone direttamente e indirettamente interessate).
I quattro principi chiave sono stati poi, a loro volta, tradotti in sette requisiti che i sistemi di Intelligenza Artificiale devono rispettare per essere definiti “affidabili”. Questi principi comprendono aree che riflettono le principali priorità di politica pubblica dell’Unione Europea – come la protezione dei dati personali e il perseguimento del benessere sociale e ambientale – insieme ai requisiti che più comunemente caratterizzano le discussioni sull’Intelligenza Artificiale etica. Questi includono la supervisione umana, la trasparenza, la responsabilità, la robustezza tecnica, la protezione della diversità e la prevenzione di pregiudizi e discriminazioni.
Tuttavia, forse la caratteristica più innovativa delle linee guida etiche è il tentativo di contribuire ad aumentare la conformità ai requisiti attraverso la pubblicazione di un elenco di valutazione dettagliato, che è stato trasformato in uno strumento interattivo web-based. La politica dell’AI HLEG e le sue raccomandazioni chiedevano esplicitamente di rendere obbligatoria la valutazione di “affidabilità dell’Intelligenza Artificiale ” per tutti i sistemi impiegati nel settore privato che hanno il potenziale per avere un impatto significativo sulla vita umana. Tra questi, ad esempio, l’Intelligenza Artificiale che interferisce con i diritti fondamentali dell’individuo in qualsiasi fase del ciclo di vita del sistema (cioè dalla progettazione allo sviluppo, alla commercializzazione, all’aggiornamento e infine allo smaltimento). La valutazione obbligatoria si applicherebbe anche all’Intelligenza Artificiale relativa ad applicazioni che, in caso di malfunzionamento, rappresentano, ad esempio, una minaccia specifica per la sicurezza delle persone, mettendo in pericolo apparecchiature o proprietà e rischiando di danneggiare l’ambiente.
Sembra chiaro, quindi, che l’AI HLEG non considera “l’Intelligenza Artificiale affidabile” come un semplice obiettivo ma, piuttosto, come il fondamento di un sistema legale completamente nuovo basato sul rischio, in cui le applicazioni critiche che potenzialmente incidono sui diritti fondamentali sono soggette a una valutazione obbligatoria. L’AI HLEG ha anche invitato la Commissione Europea a considerare la creazione di una “struttura istituzionale” che possa aiutare a raccogliere e diffondere le best practices in modo più agile di quanto giudici e legislatori siano normalmente in grado di fare. L’AI HLEG ha assunto una posizione critica su una serie di usi emergenti dell’Intelligenza Artificiale, che si ritiene creino rischi significativi per gli utenti e la società. Questi includono la sorveglianza di massa e l’uso di armi letali autonome, su cui il gruppo ha chiesto una moratoria internazionale. L’AI HLEG ha anche esplicitamente raccomandato ai politici di emanare regolamenti per garantire che gli individui non siano soggetti a “tracciamento o identificazione personale, fisica o mentale ingiustificata, profiling e nudging attraverso metodi di riconoscimento biometrico basati sull’Intelligenza Artificiale come il tracciamento emotivo, DNA, scansione dell’iride e identificazione comportamentale, i quali influenzano il riconoscimento (cioè la capacità di rilevare lo stato emotivo di un individuo), il riconoscimento vocale e facciale e il riconoscimento delle microespressioni”. Tali metodi dovrebbero essere consentiti solo in circostanze eccezionali, ad esempio, nel caso di pressanti minacce alla sicurezza nazionale; e anche in questo caso solo se “basati su prove nonché sul rispetto dei diritti fondamentali”.
Il Libro Bianco sull’Intelligenza Artificiale: dalle parole ai fatti
La strategia sull’Intelligenza Artificiale dell’Unione Europea ha raggiunto un punto di svolta nel dicembre 2019 con l’arrivo della nuova Commissione Europea guidata da Ursula von der Leyen. La nuova presidente già nei primi 100 giorni del suo mandato annunciò un’iniziativa sulle conseguenze umane ed etiche dell’Intelligenza Artificiale. Allo stesso tempo, e soprattutto in seguito alla nomina di Thierry Breton a commissario per il mercato unico, la Commissione Europea ha anche intensificato i suoi sforzi sulla strategia dei dati. La questione è intimamente legata alla politica dell’Intelligenza Artificiale e cruciale in termini di future partnership e alleanze a livello internazionale, a causa delle differenze esistenti nel quadro giuridico per la protezione dei dati nei diversi Paesi Membri dell’Unione, e per la crescente enfasi che l’Europa pone sulla sovranità tecnologica e sui dati. Il 19 febbraio 2020 la Commissione ha lanciato un pacchetto completo contenente le sue idee e azioni sulla trasformazione digitale, tra cui un Libro Bianco sull’Intelligenza Artificiale e una strategia europea per i dati. Il pacchetto, che è al tempo stesso molto assertivo e completo, segna un altro passo avanti nella ricerca europea di un’Intelligenza Artificiale “umanocentrica”. Si basa su una visione specifica del futuro dei dati e dell’Intelligenza Artificiale, compresa l’aspettativa di un prossimo cambiamento di paradigma, da un ambiente dominato dal cloud a dati molto più diffusi. Negli anni a venire, la Commissione prevede che l’attuale situazione 80/20 (80% dei dati immagazzinati nel cloud e 20% localmente) si sposterà verso uno scenario 20/80 (con l’80% dei dati immagazzinati localmente, ad esempio, nei dispositivi, negli oggetti cyber-fisici e nell’Edge Computing). Con questo spostamento, le piattaforme – come quelle dei colossi Google e Alibaba – potrebbero diventare meno dominanti. In un simile contesto, la Commissione Europea spera che l’Europa abbia la possibilità di competere attraverso una nuovissima infrastruttura basata su un cloud federato, un’infrastruttura cloud in grado di ospitare: vari servizi cloud eterogenei sotto un insieme comune di specifiche di interoperabilità (eventualmente incrementando le iniziative nazionali come GAIA-X); spazi dedicati in settori chiave (come l’industria manifatturiera, la sanità e i trasporti); e dati provenienti da istituzioni pubbliche e progetti di ricerca. Tutto ciò sarà alimentato da una nuova partnership pubblica-privata sull’Intelligenza Artificiale che alimenterà le conoscenze specialistiche dell’Unione Europea, in particolare nella robotica e nella “Intelligenza Artificiale integrata” con sistemi e dispositivi hardware. Il Libro Bianco si pone il duplice obiettivo di creare un “ecosistema di eccellenza” e un “ecosistema di fiducia” unico nel suo genere, basato principalmente su un approccio “umanocentrico”. Nel fare questo, riflette l’approccio iniziale della Commissione per il 2018, basato su una combinazione di competitività (basata sull’eccellenza) – che richiede ricerca e innovazione, investimenti, competenze e politica industriale – e di Intelligenza Artificiale eticamente allineata (basata sulla fiducia), che richiede un approccio alla regolamentazione basato sul rischio. Sul versante dell’eccellenza, la Commissione ha annunciato la creazione di centri di sperimentazione in grado di combinare investimenti europei, nazionali e privati; una nuova azione sulle competenze e sul sostegno alle piccole e medie imprese; un budget dedicato per il finanziamento azionario (a partire da 100 milioni di euro); e, in particolare, il lancio di una nuova partnership pubblica-privata sull’Intelligenza Artificiale, nei dati e nella robotica. Per quanto riguarda la questione della “fiducia“, insieme alle modifiche al regime di responsabilità per danni, il Libro Bianco riflette il lavoro dell’AI HLEG. Chiede quindi l’adozione di un quadro normativo flessibile e agile, limitato alle applicazioni “ad alto rischio”, in settori quali la sanità, i trasporti, la polizia e la giustizia, incentrato al contempo sulle disposizioni relative alla qualità e alla tracciabilità dei dati, alla trasparenza e al controllo umano.
In particolare, la Commissione annuncia che, per le applicazioni ad alto rischio, le regole potrebbero riguardare i dati di formazione (training data), la tenuta dei dati e dei registri, la fornitura di informazioni agli utenti e la robustezza e l’accuratezza del sistema. In questi settori, potrebbero anche esserci requisiti di supervisione umana e requisiti specifici per alcune particolari applicazioni di Intelligenza Artificiale, come quelle utilizzate per l’identificazione biometrica a distanza. Alcune delle potenziali regole hanno già suscitato preoccupazione tra i paesi extra-UE: ad esempio, la possibilità che i sistemi di Intelligenza Artificiale sviluppati e formati al di fuori dell’Unione Europea debbano essere riqualificati con dati “europei” prima della loro commercializzazione. Il programma di lavoro della Commissione indica che un’iniziativa legislativa in materia è prevista per la fine del 2020. Tale programma prevede un “seguito” al Libro bianco, incentrato sulla sicurezza, la responsabilità, i diritti fondamentali e i dati. Allo stesso tempo, la Commissione Europea sta lavorando a un’iniziativa legislativa sulla governance dello spazio dati, che dovrebbe integrare la strategia sull’Intelligenza Artificiale creando un approccio europeo ai dati.
Unione Europea, Intelligenza Artificiale e scenari futuri
Oltre al 5G, dove aziende come Nokia e Ericsson sono in grado di competere con i rivali cinesi e sudcoreani, la Commissione Europea vede un mercato favorevole per l’Unione nelle soluzioni neuromorfiche (soluzioni che imitano l’architettura neurobiologica del cervello umano) che ben si adattano ad automatizzare i processi industriali e le modalità di trasporto. L’obiettivo dell’Unione Europea è quello di agire come un riferimento mondiale, cercando di sfruttare la sua capacità di regolamentazione per esportare le sue regole e i suoi standard nel resto del mondo. Questo è stato definito come “potere normativo dell’Unione Europea” o “effetto Bruxelles” dai commentatori e dagli accademici. In seguito all’esperienza “globale” del GDPR, anche questo settore comporterà l’introduzione di regole extraterritoriali, che vincoleranno coloro che desiderano interagire con il mercato unico europeo e con i suoi consumatori, indipendentemente dall’ubicazione della sede centrale dell’azienda.
Tuttavia, rispetto al GDPR, l’approccio proposto dalla Commissione Europea contiene alcune interessanti novità. In particolare, la strategia dei dati e l’annuncio della creazione di una “federazione europea del cloud” (basata su GAIA-X) porterà ad una nuova fase dell’espansionismo normativo europeo. Questa si baserà anche sul software oltre che sulla legge. I grandi operatori di cloud di paesi non appartenenti all’Unione Europea hanno già riconosciuto che l’ammissione alla futura infrastruttura cloud federata europea implicherà l’adesione a una serie di protocolli e standard che incorporano la conformità alle norme europee, a partire dalla privacy. Allo stesso modo, gli spazi annunciati nella strategia dell’Unione per l’Intelligenza Artificiale incorporeranno l’acquis comunitario – ossia l’insieme dei diritti e dei doveri comuni che sono vincolanti per tutti i paesi dell’Unione Europea – come un codice software. È difficile prevedere se la strategia dell’Unione avrà successo a livello internazionale. La Commissione sembra certamente aver compreso che senza un’ampia alleanza internazionale per uno sviluppo responsabile dell’Intelligenza Artificiale, gli sforzi dell’Unione saranno vanificati dai giganteschi investimenti e dagli sforzi militari di Stati Uniti e Cina. I primi passi avanti, come la proposta di creare un Gruppo intergovernativo sull’Intelligenza Artificiale, e la Partnership globale, hanno portato a una situazione di stallo dovuta soprattutto all’opposizione delle due superpotenze in lotta tra loro. E mentre l’OCSE e il G20 convergono sull’approccio dell’UE, questi promettenti sviluppi potrebbero non inaugurare un futuro più armonioso e coordinato a causa degli interessi incombenti e contrastanti del “G2”. Le ragioni non sono difficili da individuare: mentre i principi normativi statunitensi per l’Intelligenza Artificiale adottati nel gennaio 2020 sembrano segnare un passo importante verso una convergenza di principi ampiamente condivisi per l’Intelligenza Artificiale responsabile, i “Beijing AI Principles” cinesi recentemente adottati e l’approvazione de facto da parte cinese del processo OCSE/G20 li rendono meno interessanti dal punto di vista strategico per degli Stati Uniti che puntano all’esclusione della Cina dai giochi. La cooperazione internazionale vedrà anche l’ulteriore coinvolgimento di attori non statali, che sono stati estremamente attivi negli ultimi anni attraverso iniziative multi-stakeholder di vasta portata. Se questi sforzi dovessero fallire vi potrebbe essere lo scenario che vede un gruppo di “paesi con idee simili” creare una coalizione che escluda grandi potenze come la Russia e la Cina, basandosi sulle linee guida e sui requisiti dell’Unione Europea per una “Intelligenza Artificiale affidabile”, stabilendo una cooperazione sulla protezione dei dati personali basata sulla tecnologia.[2]
- High-Level Expert Group on Artificial Intelligence. ↑
- Andrea Renda. Artificial intelligence: Towards a pan-European strategy.Europe’s digital sovereignty: From rulemaker to superpower in the age of US-China rivalry. The European Council on Foreign Relations (ECFR). ↑