La recente proposta di regolamento europeo sull’intelligenza artificiale, che si pone come una terza via tra l’approccio liberal statunitense e quello cinese imperniato sul controllo pervasivo, va inquadrata in un disegno più ampio, di forte operosità, da parte della stessa Commissione Europea sui temi legati al digitale.
Regolamento UE su AI, Floridi: “Un traguardo importante, ecco perché e come migliorarlo”
Con la comunicazione quadro “Plasmare il futuro digitale dell’Europa” del febbraio del 2020, la Commissione ha infatti indicato tre obiettivi chiave per lo sviluppo tecnologico nei prossimi anni:
- la trasformazione digitale delle pubbliche amministrazioni in tutta Europa per migliorare l’interazione tra cittadini, amministrazioni ed erogatori di pubblici servizi;
- la crescita di un mercato unico che consenta alle imprese di competere in condizioni di parità e assicuri tutela ai consumatori;
- la costruzione di un ambiente digitale sicuro e affidabile, secondo il principio per cui è riconosciuto come illecito nell’ambiente digitale ciò che è considerato come tale offline;
La strategia della Commissione
Tra le azioni principali prospettate dalla comunicazione quadro, la Commissione ha già presentato alcune proposte normative volte, per un verso, ad accrescere e armonizzare le responsabilità delle piattaforme online e dei fornitori di servizi d’informazione (legge sui dati – cosiddetto digital services act) e per l’altro, a introdurre regole per assicurare ex ante che i mercati caratterizzati da grandi piattaforme che agiscono come “gatekeepers” rimangano equi e contendibili per gli innovatori, le imprese e i nuovi operatori di mercato (digital markets act).
Scorza: “Sulle regole AI l’Europa pone la prima pietra, ma sarà sfida enorme: ecco perché”
Il Libro Bianco sull’intelligenza artificiale
Già con il Libro Bianco sull’intelligenza artificiale (IA), presentato contestualmente alla comunicazione quadro nel febbraio 2020, veniva sottolineata l’esigenza di adottare un approccio coordinato a livello dell’Unione per promuovere lo sviluppo europeo di applicazioni di IA e favorirne l’adozione da parte delle pubbliche amministrazioni e delle imprese, anche piccole e medie. Ma soprattutto emergeva l’esigenza di definire quanto prima un quadro normativo specifico in materia di sicurezza, responsabilità e tutela di diritti fondamentali. Del resto, già nell’aprile 2019, l’High-Level Expert Group on IA della Commissione aveva lavorato e pubblicato le linee guida etiche e di policy per l’IA secondo cui un’IA affidabile doveva basarsi su legalità, eticità e robustezza.
La proposta di regolamento
Nell’ambito della “Strategia europea per l’Intelligenza Artificiale”, la Commissione europea ha pubblicato il 21 aprile la proposta di regolamento sull’approccio europeo all’Intelligenza Artificiale che propone il primo quadro giuridico europeo e internazionale sull’IA.
Una primissima riflessione può essere fatta a partire dallo strumento normativo utilizzato: un regolamento invece che una direttiva. Ciò presuppone che non ci sarà un lavoro singolo di ogni stato, ma una discussione corale e comune in tutti gli stati membri tramite un percorso che probabilmente durerà un paio di anni.
Riprendendo le parole della Vicepresidente della Commissione europea Margrethe Vestager, il regolamento “vuole spianare la strada ad una tecnologia etica in tutto il mondo e rimanere competitiva”, in altre parole normare un settore da 20 miliardi di euro di investimenti ponendosi, sul piano della governance, trainante rispetto a Cina e USA. A differenza delle due superpotenze mondiali, l’Europa fa bene a cercare una sua autonomia proponendo una via che difenda i diritti fondamentali e i valori europei. Citando Oreste Pollicino, “un capitalismo digitale, costituzionalmente temperato, in cui proporzionalità e ragionevolezza siano le stelle polari”[1].
Il ruolo geopolitico della Ue
Effettivamente l’unicità dell’approccio europeo ha il merito di incentrare il dibattito guidandolo verso un percorso alternativo tra, da una parte, le politiche liberali statunitensi in cui le big tech impongono il proprio business e, dall’altra, la via cinese legata ad un controllo pervasivo. È proprio in questo quadro che l’Europa gioca il suo importante ruolo geopolitico, colmando un vuoto normativo sul piano giuridico e legandolo ai diritti fondamentali. Un approccio che rappresenta un livello di maturità già riscontrato con la normativa europea sulla protezione dei dati personali che hanno reso il GDPR il riferimento globale al quale si sono dovuti conformare tutti gli operatori del digitale. Laddove l’Europa fa fatica a inseguire USA e Cina in ambito di industria digitale, si pone invece come guida tramite una visione a 360 gradi sull’IA e punto di equilibro per la tutela dei diritti fondamentali legati all’innovazione.
Venendo quindi al merito del regolamento europeo, da una parte si vogliono liberare le forze imprenditoriali nei settori di utilizzo dell’intelligenza artificiale, dall’altra si pongono dei paletti sull’utilizzo dell’IA basati sulla classificazione del rischio. È proprio in quest’ultimo punto che notiamo la coraggiosa scelta della Commissione europea in cui si promuove il rigore della disciplina in base alla classificazione di rischio diviso in quattro livelli. Spunto di riflessione e dibattito è ovviamente l’ultimo livello, il rischio inaccettabile tramite il quale si vietano pratiche come riconoscimento facciale indiscriminato nei luoghi pubblici (se non con eccezioni di ordine pubblico) e sistemi di social scoring su modello cinese. Non solo: si vieta anche qualsiasi algoritmo che possa avere un impatto sui diritti fondamentali, sulla salute, sull’accesso al lavoro (come la valutazione di un curriculum o l’accesso al mutuo), implicando prima della sua autorizzazione, un esame che ne certifichi il corretto funzionamento.
Tali regole varranno anche per le aziende extraeuropee e chiunque non le rispetterà sarà multato fino a 30 milioni di euro o al 6% del fatturato globale. In sostanza questo regolamento ci dice che l’intelligenza artificiale non può essere abbandonata a sé stessa o a servizio di pratiche industriali, ma va indirizzata e seguita in base ai diritti fondamentali e alla dignità dell’uomo.
Si tratta di una prima bozza che ha la particolarità di inquadrare il tema in maniera molto ambiziosa non solo dal punto di vista esclusivamente tecnologico, ma in un contesto incentrato sull’uomo, mettendo da parte dibattiti futuristici su soggettività legale dell’IA, ma agendo sul presente.
Le criticità più evidenti sono quelle di aver circoscritto con molta precisione alcune pratiche scorrette che nel corso degli anni potranno essere modificate o addirittura ampliarsi in base all’avanzamento della tecnologia, ma anche quella di non aver dato il giusto rilievo a uno degli usi più delicati dell’IA come quello legato al funzionamento di armi, nonostante il tema sia classificato come un rischio da valutare.
Intelligenza artificiale, un approccio che vede l’uomo al centro
Come detto, l’Europa si muove all’interno di un approccio che vede l’uomo al centro. Proprio come avvenuto per la “Proposta di Strategia sull’Intelligenza artificiale” prodotta dal Mise e realizzata dal gruppo di esperti selezionati dal Ministero e pubblicata il 2 luglio 2020 dopo essere stata sottoposta a consultazione pubblica.
Il documento è stato la base per proporre nel settembre 2020 “Una strategia nazionale per l’IA” sottoposta anch’essa a consultazione pubblica il 2 ottobre, conclusasi il 31 dello stesso mese. Il documento elaborato dagli esperti suggerisce di sostenere la diffusione dell’IA nelle imprese italiane tramite misure di sostegno economico, l’attuazione di percorsi di formazione dei lavoratori, ma anche l’inserimento dell’Intelligenza Artificiale tra le materie scolastiche, in modo da accrescere il livello di competenza digitali del nostro Paese. Viene inoltre fornito l’input a creare, all’interno della Pubblica Amministrazione, un centro di coordinamento delle misure relative all’IA e a sostenere la creazione di un istituto italiano sull’Intelligenza artificiale per promuovere l’innovazione e la ricerca in questo settore.
Conclusioni
Lo scorso 3 settembre il Governo Conte aveva individuato la città di Torino come futura sede dell’Istituto per l’intelligenza artificiale – I3A – per coordinare le varie attività di ricerca. Un impegno seppur non formalizzato dal Governo Draghi nel PNRR, ma che sarà presente nei decreti attuativi del Recovery Fund. Infatti, una delle azioni indicate dal Libro Bianco era proprio quella di avere un polo dell’innovazione digitale per Stato membro finanziato con risorse del programma Europa digitale.
In definitiva, l’adozione di strumenti di valutazione del rischio e di misure di tutela dei consumatori, nonché la sistematizzazione dei dati raccolti dal settore della Pubblica Amministrazione, costituiranno la base per elevare il livello di sicurezza e la qualità dei servizi ad alto valore aggiunto.
Il mio auspicio è quello che per attuare questi programmi venga garantita sempre l’occupazione e la tutela sociale, temi che considero cruciali per un progresso consapevole e lungimirante delle nostre economie.
Note
- https://www.ilsole24ore.com/art/la-terza-via-europea-un-capitalismo-digitale-ben-temperato-AEFbPyC ↑