L’Europa sta lavorando per un quadro di regole e azioni che restituisca a cittadini e aziende un’intelligenza artificiale (AI) sviluppata in modo affidabile. Ed è importante che sia “affidabile”: è questa la parola cardine da considerare.
L’AI può avere grossi impatti economici, può aumentare efficienza e produttività, e migliorare la qualità della vita. Se non ben sviluppata però può sviluppare problemi di sicurezza – si pensi a device medici o automobili connesse. Per mettere sul mercato dispositivi di questo tipo, che hanno un alto impatto sulla vita, sono già necessari certificati, che ne analizzano sì il software ma che al momento non prendono in considerazione nello specifico l’AI.
Intelligenza artificiale, parola d’ordine: fiducia
Oltre al problema di sicurezza fisica, c’è da considerare un rischio per i diritti fondamentali. Un esempio arriva dall’apparato di videosorveglianza di Como, con riconoscimento facciale, che non rispettava la privacy né era accurata. Tanto che è dovuto intervenire l’autorità garante privacy.
Di converso, è necessario migliorare la fiducia in queste tecnologie altrimenti non può decollare il mercato sottostante, che è utile alla crescita economica europea e al benessere dei cittadini.
In un nostro sondaggio alle imprese europee, il 65 per cento di loro ha detto che una delle principali barriere all’uso di AI è proprio la mancanza di fiducia.
Creare un sistema di fiducia ci serve quindi sia per proteggere i cittadini, la società ma anche per sviluppare il mercato, e quindi l’innovazione e la prosperità in Europa.
Questo principio – sviluppare l’affidabilità dell’AI a favore sia della crescita del mercato sia della sostenibilità ambientale e della tutela dei nostri diritti – è cardine dell’approccio dell’UE su tutte le innovazioni digitali.
All’interno di questo percorso verso il futuro dell’AI, abbiamo già fatto molta strada. L’High level expert group on AI per due anni ha seguito la commissione europea e da qui si è arrivati a stilare principi per una “AI di fiducia” (trusted), quindi tradotti in una checklist per gli sviluppatori. Chi sviluppa AI si può così porre alcune domande e riflettere sui rispetto di alcuni principi, per capire se sta sviluppando una AI trustworthy.
Poi a febbraio abbiamo pubblicato un libro bianco su AI, diviso in due parti:
- l’ecosistema di eccellenza con misure in atto per sovvenzionare lo sviluppo dell’AI;
- l’ecosistema della fiducia, proposte di regole per rendere l’AI più affidabile.
Obiettivo dell’Europa è insomma diventare motore di sviluppo di una AI affidabile.
Alla ricerca di un quadro regolamentare equilibrato
A luglio è finita la discussione pubblica sul libro e ora stiamo preparando un testo legislativo per regolare il fenomeno, che sarà pubblicato entro il primo trimestre 2021.
Il punto fermo è creare un quadro regolamentare equilibrato. Evitare regole eccessive che frenino l’innovazione. Ci focalizzeremo quindi su applicazioni che sono ad alto rischio sui nostri diritti fondamentali e sicurezza. Queste applicazioni vogliamo che abbiano una sorta di certificazione, prima che siano sul mercato, per ridurre al minimo gli effetti negativi.
Ad esempio: dispositivi medici, robot industriali, giocattoli, auto a guida autonoma. Tutti i prodotti di settori già sottoposti a controlli dovranno avere controlli sull’eventuale AI inclusa.
Vorremmo che si sviluppino standard per questi controlli. Sarà importante analizzare anche i dataset di training. Gli sviluppatori devono pubblicarne le caratteristiche e i parametri usati per l’algoritmo. Obiettivo: evitare bias, alti tassi di errore. E rendere queste informazioni chiare all’utente. Andrà chiarito anche se l’applicazione richiede una sorveglianza umana e di che tipo.
La sfida principale su questa strada è che ci sono tanti stakeholder diversi. In molti c’è la paura che se si regola troppo, l’AI sarà sviluppata altrove; il mercato europeo dell’innovazione ne sarà soffocato, e noi saremo solo consumatori di AI.
Con un doppio danno: per il nostro mercato europeo e perché ci troveremmo a usare AI che potrebbero non rispettare i principi europei posti a tutela dei diritti.
Stati membri in ordine sparso
Gli Stati membri hanno opinioni diverse a riguardo e alcuni stanno correndo su proprie regole. Ma sarebbe un problema averne diverse, andremmo a detrimento del mercato unico. Servono regole uniformi per sostenerlo.
Noi potremmo diventare sviluppatori forti di AI nei settori industriali dove siamo leader. Confidiamo che il Recovery Fund, di cui il 20 per cento deve andare al digitale, spinga le aziende a mettere l’AI nelle fabbriche.
La lettera dei 14 Paesi, che ha avuto diverse interpretazioni sui media, io la leggo così: non vogliono un eccessivo peso delle regole ma sono d’accordo che serva un controllo su applicazioni ad alto rischio. E vorrebbero un sistema di bollini, da noi indicato anche nel libro bianco, come quelli sui frigoriferi: chi segue certi principi potrà mettere sulla propria AI il bollino che è trustworthy.
Servirebbe anche per aumentare la reputazione internazionale dei prodotti Ue di AI e quindi sostenerne la competitività.
Ma secondo alcuni non è detto che sia un sistema esaustivo perché sarebbe volontario. La sfida è trovare la giusta misura tra regolare troppo e troppo poco.
Per quanto riguarda il nuovo quadro regolatorio abbiamo ora in corso una riflessione interna su cosa rendere obbligatorio e cosa volontario. Ciò che la Commissione europea deciderà non è ancora noto. Ci potrebbero ad esempio essere regole obbligatorie per servizi più rischiosi e volontarie per le altre. Il consiglio e il Parlamento potrebbero in ogni caso cambiare anche la proposta della UE. L’iter è lungo. Secondo me vi arriveremo in fondo solo nel 2022.
È una fase di grande cambiamento e potenziale accelerazione, per il ruolo dell’AI nelle nostre vite.
L’AI e la pandemia
L’AI ha partecipato in molti modi in questa pandemia, è servita ad esempio per accelerare le diagnosi covid-19 basate su immagini radiologiche. La stessa Commissione ha distribuito queste applicazioni agli ospedali. È usata per assistere la ricerca su molecole di farmaci e vaccini, tramite super computer. È usata anche per studi epidemiologici sull’andamento della pandemia. Entra nei robot ospedalieri. Ci sono studi secondo cui gli impatti socio economici della crisi sanitaria potrebbero accelerare automazione e AI. Speriamo sia così anche in Italia, ora ha i fondi del Recovery per riuscirci. L’AI può fare la differenza abbinata a robotica, sensoristica. Nelle fabbriche, nell’agricoltura. Ma persino anche nel turismo, duramente colpito dalla pandemia: può creare digital twin di operare, edifici, resi così accessibili a turisti stranieri che non possono venire di persona.
La pandemia secondo vari studi sta anche offrendo l’opportunità ad alcuni Paesi per restringere i diritti, anche con tecnologie di AI, per analisi di big data a scopo sorveglianza di massa e riconoscimento facciale. Noi per fortuna in Europa abbiamo una forte privacy e un’attenzione ai diritti. Anche per questo motivo, per allontanare questo spettro dal mondo, è importante che l’Europa si protagonista per uno sviluppo positivo di queste tecnologie, orientandole al bene comune.