Costruire un ecosistema di eccellenza e di fiducia nell’intelligenza artificiale sono due pilastri del Regolamento UE che abbiamo proposto.
Le disposizioni normative proposte sono espressione e compimento di principi alla base dell’intera azione strategica che l’Europa sta conducendo per uno sviluppo equilibrato della società digitale.
La proposta di regolamento sull’intelligenza artificiale contiene quindi un sistema di norme che saranno deliberate e adottate nei prossimi anni dal Parlamento Europeo e dal Consiglio secondo le procedure democratiche previste dai trattati UE.
Le disposizioni prevedono l’introduzione del sistema di marcatura CE ai sistemi di intelligenza artificiale considerati ad alto rischio, cioè quei sistemi che possono mettere a repentaglio la tutela dei diritti fondamentali dei cittadini come la non discriminazione e gli elevati standard di salute e sicurezza presenti in Europa.
Intelligenza artificiale, i punti chiave del regolamento europeo
La sfida di incastrare le regole UE con quelle esistenti
Una delle sfide è appunto incastrare bene le regole sull’AI con le normative esistenti. Sì, le prime cose che cadono all’occhio, nel nostro testo è la lista delle applicazioni ad alto rischio e i divieti al riconoscimento biometrico (con eccezioni); ma un aspetto che non è stato colto appieno è come si rapporta il regolamento con le regole già presenti su prodotti e servizi, come ad esempio le regole sulla sicurezza dei dispositivi medici e dei robot industriali.
Ci sono voluti diversi mesi per stabilizzare una risposta al problema. Bisogna premettere che ci sono due principali sistemi normativi riguardo alla sicurezza dei prodotti in Europa: uno di “vecchio regime” dove l’atto normativo UE contiene disposizioni molto dettagliate, un cui ogni regola fa regola a sé (vedi normative sugli autoveicoli o sul settore dell’aviazione) e poi un sistema di “nuovo regime” – dispositivi medici ad esempio – dove l’atto normativo UE si concentra su principi essenziali, di portata più generale, e lascia spazio a standard o a soluzioni tecniche adottate dal produttore.
Quando un prodotto riceve un marchio CE tale marchio sta ad indicare che il prodotto è sicuro. Dato che l’intelligenza artificiale trova applicazione in tantissimi prodotti che sono soggetti a normative settoriali diverse, la nostra risposta è stata adottare un approccio differenziato che fosse il più possibile in linea con i regimi esistenti.
Come si applicano le nuove regole
- Pertanto, laddove l’intelligenza artificiale costituisce una componente essenziale per la sicurezza di un prodotto, le nuove regole si applicano direttamente per quanto riguarda i prodotti di “nuovo regime”.
- Per quanto riguarda invece i prodotti di “vecchio regime”, le nuove regole si applicheranno solo a seguito dell’adozione da parte della Commissione di revisioni delle regolamentazioni settoriali.
I diritti tutelati appieno, nel dialogo tra le regole
Le regole esistenti dialogano con il regolamento anche sul fronte dei diritti. Il regolamento su AI non fa storia a sé e quindi è scorretto dire che il testo della Commissione non vieta la sorveglianza di massa, che peraltro, è già vietata dalla costituzione di molti Paesi e dal Gdpr; nel testo finale – rispetto alla bozza che è stata diffusa prima dell’adozione del testo finale – abbiamo chiarito meglio quale sia il ruolo dell’ intelligenza artificiale in un sistema di sorveglianza: il fatto che l’IA venga utilizzata per identificare specifiche persone che sono oggetto di una ricerca da parte delle forze dell’ordine.
Riconoscimento facciale, equilibrio tra sicurezza e privacy
Viene proibito l’uso dell’identificazione biometrica remota (come riconoscimento facciale) da parte della polizia in zone pubbliche quando questa ha luogo in tempo reale, a meno che la polizia non ne faccia uso per crimini importanti, così come viene vietato il social scoring fatto da autorità pubbliche.
Quando è permesso, il riconoscimento facciale è sempre considerato un’applicazione ad alto rischio, e come tale deve rispettare gli obblighi previsti dal regolamento in fatto di marcatura CE.
Per l’identificazione biometrica in tempo reale abbiamo previsto eccezioni, ma con requisiti molto stringenti (ad esempio in relazione a reati e pericoli di grande severità); i legislatori nazionali possono scegliere di restringerli ulteriormente. Qui abbiamo trovato un punto di equilibrio tra chi voleva usare di più l’IA per motivi di sicurezza e chi voleva vietarla del tutto (alcune associazioni per i diritti civili).
Sul punto aggiungo solo che meriterebbe più attenzione il fatto che non si sappia molto della tecnologia di videosorveglianza già usata negli aeroporti: chi la produce, dove sono i dati.
Il dialogo con le regole future: responsabilità civile
A proposito di regole future, invece, per quanto riguarda la responsabilità civile dell’AI uscirà probabilmente una norma specifica.
Un tema – affrontato da quest’ultimo – è come si mette su strada una macchina con IA (quali obblighi e criteri seguire); il secondo è che succede se va qualcosa di storto, come e chi bisogna assicurare.
Il dialogo con regole di altri Paesi
Un altro fronte di dialogo del regolamento è con le regole sviluppate da altri Paesi. Noi siamo i primi ad avere un approccio a 360 gradi al tema e speriamo di ispirare altri. Già adesso vedo che cresce la sensibilità, al mondo, verso la necessità di una tecnologia centrata sull’umano e sorretta da regole.
Il Canada ha una legge sulla trasparenza degli algoritmi; Nuova Zelanda e Australia vanno in questa direzione.
Con gli Usa abbiamo un dialogo informale che speriamo di rendere presto formale. Con loro abbiamo un approccio non dissimile, basato sul rischio; servono regole per mitigarlo e standard.
Sarà opportuno convergere su regole globali. Un primo tentativo è l’iniziativa G7 franco-canadese Global Partnership on Artificial Intelligence (GPAI), che funziona come le conferenze sul clima (Cop)”.
Nessuna penalizzazione del mercato. Anzi
Il nostro è del resto un approccio ragionevole, equilibrato e proporzionato all’innovazione. Non vogliamo penalizzarla e quindi ostacolarne i vantaggi che possono venire alla società. Vietiamo solo applicazioni incompatibili con una società civile, democratica.
Per il resto, meno del 10% delle attuali applicazioni AI sono regolate e sono quelle che – impattando su diritti fondamentali, sicurezza, salute – è corretto ci siano criteri da seguire e un controllo terzo. E anche per quest’ambito non c’è un profluvio di regole, ma cinque requisiti da rispettare.
Ricordiamo inoltre che il regolamento prevede una sandbox per le startup innovative. E abbiamo in pista diverse misure – per un totale di circa 1 miliardo all’anno di finanziamenti – per sostenere le aziende che vogliono innovare con l’IA. Questo sia detto sempre nell’ottica dell’opportunità di considerare (e comprendere) il regolamento come un tassello di un ecosistema di azioni, misure.
Infine, riteniamo che queste regole, lungi dall’ostacolare l’innovazione e il mercato europeo, in realtà lo favoriscono. Perché sorreggono la costruzione della fiducia nelle tecnologie digitali, e quindi maggiore domanda. E perché una startup che seguirà questi principi acquisirà un vantaggio competitivo internazionale.
Abbiamo fornito una lista di applicazioni ad alto rischio appunto per limitare l’incertezza degli sviluppatori e non penalizzarne il lavoro. Sappiamo che questi ambiti potranno cambiare da qui a quando il regolamento sarà attuato, e che le discussioni porteranno probabilmente ad una modifica della lista nell’attuale Annex 3.
Il Regolamento stabilisce principi di lungo periodo: prossimi passi
Ma abbiamo scritto il Regolamento perché sia una medicina a rilascio progressivo, non diventa facilmente vecchio.
Fissa infatti principi generali e va a incastro su elementi più di dettaglio che si delineeranno nei prossimi mesi e anni.
Dovranno arrivare infatti gli standard che aiuteranno a rispettare gli obblighi previsti dal regolamento, facilitando il compito agli sviluppatori di IA.