Nell’intelligenza artificiale l’Europa deve recuperare il gap con le altre potenze mondiali, ma l’Italia sta messa persino peggio: deve recuperare il divario col resto della Ue.
Il nostro paese, infatti, non viene neanche citato nell’ultimo documento pubblicato il 19 settembre 2019, dal servizio di ricerca parlamentare europeo (“EPRS”), che è un servizio interno del parlamento europeo. E del resto ad oggi sono disponibili solo 50 milioni di euro pubblici in Italia, contro i miliardi delle principali potenze europee e mondiali.
Un documento molto importante che sintetizza lo stato attuale dell’approccio dell’UE allo sviluppo del quadro normativo sull’Intelligenza Artificiale (AI) con particolare riferimento ai risvolti etici dell’utilizzo di tale tecnologia. Sebbene non sia un organo decisionale, l’EPRS può fornire utili spunti sulla direzione della politica dell’UE in materia.
Il documento sintetizza i recenti inviti nell’UE ad adottare strumenti giuridicamente vincolanti per regolare l’AI, in particolare per stabilire norme comuni sulla trasparenza, stabilire le valutazioni di impatto sui diritti fondamentali e fornire un quadro giuridico adeguato soprattutto per quanto riguarda la tecnologia di riconoscimento facciale.
Contenuti principali delle Linee Guida
Il documento di sintesi fa seguito alla pubblicazione delle Linee guida etiche del gruppo di esperti di alto livello della Commissione europea per l’Intelligenza artificiale “affidabile” e l’annuncio da parte del presidente entrante della Commissione Ursula von der Leyen che ha dichiarato che presenterà proposte legislative per un “approccio europeo coordinato” alle implicazioni umane ed etiche dell’AI entro i suoi primi 100 (cento) giorni di governo.
Il documento inizia riassumendo i requisiti delle Linee guida per il raggiungimento di una AI “affidabile. Il documento identifica diverse sfide e interventi necessari che le parti interessate hanno identificato nell’attuazione delle linee guida, tra cui:
- mancanza di chiarezza nella formulazione degli orientamenti;
- mancanza di una gerarchia di principi negli orientamenti;
- mancanza di controllo, regolamentazione e monitoraggio nell’attuazione e l’applicazione degli orientamenti;
- potenziale frammentazione tra gli Stati membri.
Si rileva, in particolare, lo stato degli sviluppi nazionali separati in:
- Francia
- Germania
- Finlandia
- Regno Unito
Il documento discute quindi le possibili azioni legislative che l’UE potrebbe intraprendere in futuro, tra cui:
- chiarire ulteriormente i futuri orientamenti;
- sviluppo di standard sull’intelligenza artificiale etica e quadri di certificazione per i sistemi di intelligenza artificiale, basati su iniziative del settore;
- sviluppo di quadri normativi sull’IA.
Sui quadri normativi, il documento delinea già una serie di proposte sulla legislazione in materia di intelligenza artificiale che sono state discusse, compresa quella sulla trasparenza dei sistemi decisionali (creazione di un organo di regolamentazione per il processo decisionale algoritmico), la legislazione specifica del settore sanitario e la legislazione sulla tecnologia di riconoscimento facciale.
Il documento osserva che degli strumenti giuridicamente vincolanti potrebbero essere adottati per tradurre norme etiche in norme giuridiche, rendendoli obbligatori per i più influenti attori del settore AI nell’UE.
Il documento conclude esaminando gli sviluppi normativi sull’etica dell’intelligenza artificiale negli Stati Uniti, in Cina, Canada, Australia e altri paesi esaminandone la modalità di azione.
I risvolti dell’AI sulle politiche di difesa nazionale
Molto spesso l’intelligenza artificiale è percepita come un’ “arma” potenzialmente distruttiva e paragonata a tecnologie militari come il nucleare ad esempio e viene collocata nel contesto della sicurezza nazionale, in realtà l’AI ha applicazioni ampie e a duplice uso, più appropriatamente comparabili a tecnologie abilitanti come l’elettricità o il motore a combustione. La crescente concorrenza sull’AI sta senza dubbio influenzando anche la corsa globale alla superiorità militare. I principali attori come gli Stati Uniti e la Cina stanno investendo molto nella ricerca sull’intelligenza artificiale, accelerandone l’uso anche nella difesa. Ma anche la Russia, è sicuramente un attore importante e anche per quest’ultima, i risvolti dell’utilizzo di questa tecnologia sul piano militare non sono certamente secondari.
In Europa, tuttavia, viene prestata meno attenzione ai risvolti “militari” o della difesa nazionale, dell’AI, ciononostante, il Fondo europeo per la difesa (FES) dell’UE ha comunque stanziato tra il 4% e l’8% del suo bilancio 2021-2027 per affrontare l’applicazione di questa tecnologia per nuove tecniche di difesa e l’innovazione per rafforzare la leadership tecnologica a lungo termine dell’Europa per arrivare ad una autonomia sulla difesa degli stati membri.
Un gap da recuperare seguendo la strada etica
Rispetto alle due super potenze USA e Cina, l’UE è sicuramente in ritardo nella ricerca e nell’innovazione legate all’intelligenza artificiale, forse meno in ritardo invece rispetto alla Russia (di quest’ultima si sa poco). Sia gli Stati Uniti che la Cina hanno sviluppato tabelle di marcia serratissime per la leadership globale nell’AI e sono i paesi indubbiamente più attivi nella ricerca e nello sviluppo e hanno concentrato i più alti livelli di investimenti esterni e interni sul settore. Le recenti politiche e iniziative di finanziamento della UE però, stanno dando forma a un approccio di governance europea distintivo per affrontare tali sfide:
- maggiori opportunità di finanziamento transfrontaliero per colmare le lacune di ricerca e sviluppo a livello europeo;
- meccanismi di “governance preventiva” per la progettazione di tecnologia responsabile evitando di precorrere sentieri “impervi” evitando il rischio di accorgersi poi e di dover tornare indietro.
Complessivamente le raccomandazioni della UE, che seguono la versione di aprile 2019 delle linee guida per lo sviluppo etico e gli usi dell’ “AI fidata” danno priorità a:
- legalità e rispetto delle leggi e seguendo i regolamenti applicabili.
- AI “rispettosa” dei principi e dei valori etici;
- un’intelligenza artificiale tecnicamente solida che tiene conto dell’ ambiente sociale nel quale si sviluppa.
Pertanto, contrariamente ai concorrenti globali, l’UE ha proposto un approccio imprenditoriale unico e proattivo per sfruttare il suo potere di mercato e regolamentatore al fine di definire standard accettabili di ricerca, innovazione e usabilità per l’AI.
Il radicamento della ricerca e sviluppo di nuove ed emergenti tecnologie di sicurezza ma in modo etico è certamente un modo per garantire che non si verifichi una corsa globale alle “armi di intelligenza artificiale” o di avere benefici solo per gruppi o stati privilegiati.
Intelligenza artificiale “made in Europe”? Attendere prego
L’attenzione al mercato e alle innovazioni portate dai privati, anche piccole start-up, diventa fondamentale e sappiamo bene come la troppa rigidità potrebbe scoraggiare gli investimenti; l’equilibrio tra regolamentazione e sviluppo dunque, diventa un elemento fondamentale per non tarpare le ali all’innovazione.
Con il suo “marchio unico” di intelligenza artificiale “affidabile”, l’UE potrebbe effettivamente avere una proposta di vendita distintiva per distinguersi dalla concorrenza globale. Tuttavia, la realtà è che risulta improbabile che le altre potenze globali (USA e Cina in primis) limitino la loro ricerca se credono o anche solo intuiscono che possano trarre un vantaggio strategico rispetto alla concorrenza. Di questo ovviamente l’Europa dovrà tenere conto, fintanto che la leadership dell’UE nell’intelligenza artificiale si limita a fornire linee guida etiche, affiancando al più presto anche finanziamenti ingenti, ricerca e azioni strategiche di sviluppo.
Italia non pervenuta
Il documento dell’EPRS evidenzia, ahinoi, che l’Italia non ha avuto sin ora, uno sviluppo rilevante in ambito di intelligenza artificiale ed in effetti non viene nemmeno citata.
Va detto che proprio negli ultimi tempi, nel settembre scorso, qualcosa si è mosso, ed il Ministero dello Sviluppo economico, ha elaborato con il supporto di un gruppo di trenta esperti un documento con il quale si impegna ad elaborare un’AI human centric.
Il documento propone una strategia per il raggiungimento di nove obiettivi, tra i quali:
- aumentare gli investimenti sia pubblici sia privati dedicati all’AI e alle tecnologie correlate
- potenziare la ricerca e rafforzare l’offerta educativa
- sfruttare al massimo il potenziale di una data driven economy
- promuovere un maggiore utilizzo dell’AI nella PA per aumentare l’efficienza delle politiche pubbliche e favorire la cooperazione europea e internazionale.
Direi che il primo obiettivo elencato sopra è quello fondamentale perché sappiamo che senza investimenti non si potranno raggiungere risultati apprezzabili. Questo è infatti il motivo per cui l’Italia non compare nell’elenco dei paesi che hanno uno sviluppo nazionale sull’AI rilevante. A parte i documenti, i buoni propositi, i tavoli e le conferenze sull’argomento, servono dunque gli investimenti e serve un rilancio serio del piano Industria 4.0 voluto dal ministro Calenda, mettendo a disposizione risorse dedicate agli investitori privati sull’intelligenza artificiale.
Speriamo che il nuovo ministero per l’Innovazione tecnologica e la Digitalizzazione (ministero senza portafoglio appena introdotto dal nuovo esecutivo) guidato da Paola Pisano, sappia imporre quello dello sviluppo dell’intelligenza artificiale come un tema prioritario e spingere per questo in modo deciso sul ministero dello sviluppo economico per lo stanziamento di fondi dedicati. Ovviamente sappiamo che l’Italia deve recuperare anche sui temi della digitalizzazione, più “tradizionale” (diciamo così), ma non per questo può rimanere indietro su un settore decisivo per il nostro sviluppo.
In conclusione
Se la Ue si prefigge seriamente (e giustamente) di stabilire una governance globale dell’Intelligenza artificiale incentrata sull’uomo e basata sul valore, oltre a promuovere uno sforzo comune sull’AI “europea”, dovrebbe certamente concentrarsi maggiormente sul consolidamento del suo potere di impostazione dell’agenda sia tra i suoi Stati membri sia nel resto del mondo. L’obiettivo dovrebbe essere quello di evitare la retorica vuota e l’eccessiva regolamentazione che potrebbero impedire l’innovazione e la commercializzazione della tecnologia.
Attenzione al mercato dunque, e al giusto equilibrio tra regolamentazione e necessario stimolo all’innovazione. Così la Ue, con il suo “marchio unico” di intelligenza artificiale “affidabile”, potrebbe distinguersi dalla concorrenza globale.