Lo sviluppo costante delle tecnologie riconducibili all‘intelligenza artificiale e consistenti nella capacità di analizzare dati disponibili in misura crescente grazie all’espansione dell’ecosistema digitale utilizzando algoritmi e potenza crescente di calcolo è sempre più chiaramente un aspetto centrale e destinato a determinare una crescita costante dell’economia dei dati o, più sinteticamente dell’economia nel mondo digitale.
Questo dato di fatto, che sottolinea la centralità della AI nell’economia dei dati e nello sviluppo economico del mondo digitale spiega perché non solo in Europa ma ormai a livello globale la regolazione della AI sia diventata centrale, come ha dimostrato anche la Dichiarazione di Bletchley adotta dai Paesi partecipanti al vertice sulla sicurezza dell’intelligenza artificiale tenutasi dal 1 a 3 novembre del 2023.
La dichiarazione di Bletchey sull’AI
L’elemento centrale di quella Dichiarazione è il riconoscimento che molti dei rischi relativi all’Intelligenza Artificiale sono intrinsecamente di natura internazionale e quindi possono essere affrontati in modo adeguato solo attraverso la cooperazione internazionale. Di conseguenza, continua la Dichiarazione, i Paesi partecipanti alla Conferenza decidono di lavorare insieme “in modo inclusivo”, con lo scopo di costruire una tecnologia relativa alla AI non solo incentrata sull’uomo (concetto di per sé sfuggente) ma anche che sia “affidabile, responsabile e sicura”.
Pe questo, continua la Dichiarazione, i Paesi, in particolare quelli membri del G7, dovrebbero considerare e favorire una governance e un approccio normativo condiviso, proporzionato e pro-innovazione, che massimizzi i benefici e riduca i rischi associati alla AI.
In questo quadro, continua la Dichiarazione, le nazioni, i forum internazionali, le aziende, la società civile e il mondo accademico dovranno lavorare insieme. Secondo la Dichiarazione, infatti, è essenziale che la collaborazione internazionale sia orientata non solo a garantire una AI sicura ma anche una AI che sia fattore di inclusione e di sviluppo e aiuti una crescita sostenibile e capace di colmare il divario di sviluppo.
Tutto questo comporta la necessità di garantire la sicurezza della AI che deve essere considerata come un compito che riguarda soprattutto gli attori che sviluppano tecnologie AI di frontiera. La sicurezza va garantita dagli attori che la usano e la sviluppano, i quali devono mettere a punto test di sicurezza e valutazioni appropriate. Inoltre, continua la Dichiarazione, è necessario che gli attori della AI siano incoraggiati a fornire trasparenza e ad assumersi responsabilità adeguate per prevenire abusi e problemi di amplificazione di altri rischi.
In particolare, specifica la Dichiarazione, occorre concentrare la Agenda internazionale (a partire dal G7) per identificare i rischi per la sicurezza; per costruire una comprensione scientifica condivisa e basata sull’evidenza dei rischi mirando a un approccio globale alla comprensione dell’impatto della AI sulla società tutta.
Infine la Dichiarazione sottolinea la necessità di riconoscere che gli approcci seguiti dai diversi Paesi possono differire in ragione delle circostanze nazionali e dei quadri giuridici applicabili. Proprio per questo però occorre maggiore trasparenza da pare degli attori privati circa i parametri di valutazione utilizzati che devono essere adeguati alle tecnologie poste in essere e strumenti di test di sicurezza pertinenti.
In questo quadro la Dichiarazione di Bletcheley conclude annunciando la decisione di sostenere una rete inclusiva internazionale di ricerca scientifica sulla sicurezza della AI di frontiera, integrando la collaborazione multilaterale e plurilaterale esistente e futura, organizzando anche forum internazionali e altre iniziative idonee per l’elaborazione delle politiche e il bene pubblico.
Occorre riconoscere che la Dichiarazione di Bletcheley contiene aspetti che solo l’evoluzione futura delle iniziative annunciate potrà chiarire.
Tre elementi chiave
Quello che è certo però è che essa dimostra con chiarezza almeno tre cose:
- la prima, che è di fondamentale interesse per lo sviluppo economico globale che la AI sia affidabile e trasparente chiunque sia il soggetto che la mette a disposizione degli utenti o che ne fa uso;
- la seconda, che l’attenzione per raggiungere tale scopo, essenziale proprio per il mantenimento di un mercato globale affidabile anche nell’evoluzione digitale in atto, debba essere focalizzata sulla tecnologia usata e sulle misure tecnologiche adottate per garantire una AI affidabile, considerando solo in via secondaria l’importanza di definire regole normative o comportamentali per l’utilizzo delle tecnologie di AI;
- la terza, che la fornitura di idonee garanzie tecnologiche, da rendere note a tutti gli operatori che facciano uso di queste tecnologie, è un compito che spetta innanzitutto agli operatori e ai fornitori di servizi di AI, così come spetta agli operatori dell’ecosistema economico che ne fa uso rendere trasparenti e conoscibili gli aspetti più rilevanti della tecnologia di AI messa in atto.
Infine risulta evidentissima la scelta netta per sviluppare sempre di più una cooperazione anche tecnologica a livello sovranazionale e, in prospettiva, globale, come dimostra il fatto che la Dichiarazione si conclude con un rinvio al prossimo G7 che, come è noto, si svolgerà in Italia.
La Dichiarazione si conclude infatti con la affermazione “Non vediamo l’ora di incontrarci di nuovo nel 2024”. Il che spiega anche il rilievo che l’Italia e il governo italiano danno alle attività già in corso per preparare il prossimo G7 proprio avendo al centro l’attenzione sulla AI
Non è solo una questione di regole: la differenza con la UE
Prima di concludere, però, merita osservare che il vero contributo offerto dalla Conferenza di Betcheley riguarda la consapevolezza che la disciplina della AI non po’ essere affrontata, come invece finora sembra fare la UE, soprattutto dal punto di vista regolatorio, elaborando un nuovo Regolamento dedicato proprio a disciplinare il trattamento dei dati nell’ambito delle tecnologie AI.
La nuova disciplina deve invece essere incentrata sulla attenta valutazione degli accorgimenti tecnologici che devono essere adottati per garantire la sicurezza e la affidabilità della tecnologia AI.
E’ chiaro che questi accorgimenti tecnologici potranno anche poi essere oggetto di una specifica disciplina regolatoria, fermo restando la difficoltà di garantire che tale disciplina sia capace di seguire la inevitabile evoluzione tecnologica. Ma è chiaro anche che le regole eventualmente adottate dovranno essere il prodotto della innovazione tecnologica e non il viceversa.
In questo quadro lo spazio a disposizione per dichiarazioni di natura etica o puramente programmatica, quali quelle secondo le quali la AI deve essere “antropocentrica” e porre l’uomo al centro della sua progettazione, è molto ridotto.
Al contrario diventa ancora più importante la affermazione, sempre ripetuta nei documenti della UE e soprattutto in quelli della Commissione, secondo la quale la regolazione e il funzionamento della AI deve essere compatibile con i valori e le regole europee vigenti in materia di diritti fondamentali, a partire, per quanto qui ci riguarda, dal rispetto della regolazione a tutela dei dati personali.
Anche su questi temi merita però di essere chiari.
Va diffondendosi l’idea che sia sufficiente affermare quasi compulsivamente la perdurante validità del GDPR per garantire i diritti dei cittadini europei nel mondo digitale, lasciando poi al sistema delle Autorità vigilanti e ai giudici il compito di trovare e fissare il corretto punto di equilibrio fra una visone che continua a essere antropocentrica e basata sui diritti fondamentali dei cittadini e una visione, quella del mondo digitale, che invece si accentra sempre di più sulla necessità di regolare e garantire un corretto uso dei dati a protezione di tutta la società piuttosto che la tutela dei diritti dei singoli cittadini come tali.
La realtà invece sembra essere diversa se si mette al centro, come la Dichiarazione di Betcheley fa, l’aspetto tecnologico dei trattamenti dei dati, specialmente nel quadro della tecnologia della AI.
E’ evidente infatti che se al centro si mette la tecnologia e non la regola giuridica allora sarà compito dei tecnologi trovare le modalità idonee a garantire anche la tutela dei dati personali pur nell’ambito delle tecnologie di AI.
Il che significa che non si potrà e non dovrà rinunciare alla tutela dei dati personali sia pure nel nome di una superiore tutela della società, lavandosi poi la coscienza con appelli alla tutela della centralità degli esseri umani anche nel mondo digitale.
Si dovrà invece operare in modo opposto, cercando tutti gli accorgimenti tecnologici utili e possibili per conciliare la tutela dei singoli e dei dati personali che ad essi si riferiscono con le potenzialità sicuramente rilevanti delle tecnologie della AI nella società digitale.
Consegue da queste considerazioni il fatto che diventa particolarmente importante aprire una riflessione seria e tecnologicamente improntata anche sul processo regolatorio in corso nella UE rispetto alla AI.
La UE non pare infatti aver ancora fatto tesoro di quanto invece il recente Executive Order del Presidente Biden, adottato il 30 ottobre e finalizzato a garantire una AI solida, sicura e pienamente affidabile, mette bene in risalto.
L’executive order di Biden sulla AI
Per quanto qui interessa due soprattutto sono le caratteristiche importanti di questo Executive Order:
- la prima è che esso è stato adottato a valle di una lunga attività di messa a punto, con la collaborazione volontaria delle imprese leader nel settore, di una strategia condivisa per una innovazione tecnologica responsabile;
- la seconda, che l’Executive Order non rinuncia affatto a tutelare anche l’uso dei dati personali dei cittadini.
Al contrario esso impone che il Direttore del National Institute of Standards and Technology (NIST) provveda ad adottare linee guida per la valutazione delle garanzie relative alla protezione della privacy.
Più esattamente si afferma che entro 365 giorni dall’emanazione dell’Executive Order, al fine di aiutare le Agenzie a usare idonee PETs (Privacy Enhancing Technologies) per salvaguardare la privacy dei cittadini USA, il Segretario per il Commercio, avvalendosi del Direttore del NIST, deve adottare linee guida che le Agenzie dovranno usare per valutare la efficacia delle PETs adottate al fine di irrobustire le garanzie di protezione dei dati personali, comprese quelle relative all’uso di tecnologie AI.
Non solo: si precisa anche che le Linee Guida richiamate dovranno anche indicare i fattori che garantiscono una tutela specifica della privacy e i rischi che possono esser suscitati dall’adottare misure puntuali per tutelare in concreto la privacy.
In sostanza l’Executive Order di Biden mette al centro, fin dall’inizio, il coinvolgimento degli operatori e nel definire gli obblighi che contiene rinvia a apposite linee guida da adottare col supporto di una specifica struttura tecnica (il NIST appunto). Spetterà a queste linee guida indicare le misure da adottare a tutela dei dati personali dei cittadini rispetto alle tecnologie di AI.
Ancora: al fine di incentivare le attività di ricerca, sviluppo e implementazione delle PETs, il Direttore del NSF (National Science Foundation) è incaricato di creare un Research Coordination Network dedicato a promuovere e sviluppare l’adozione di PETs e di implementarne l’uso negli apparati del governo federale. Tutto questo entro 480 giorni dall’emanazione dell’Executive Order.
Al fine poi di promuovere una stretta cooperazione tra il settore pubblico e quello privato nel campo delle PETs applicate all’attività della AI, l’Executive Order prevede la creazione di un programma pilota finalizzato a definire come creare un modello computazionale distribuito di dati anche finalizzato ad allenare la AI e come rendere questo modello utilizzabile per le ricerche della comunità della AI.
A tal fine si stabilisce che entro 90 giorni dalla data di emanazione dell’Ordine Presidenziale il Direttore del NSF, in accordo con i Direttori delle Agenzie, lanci a programma idoneo a implementare l’attività del NAIRR (National AI Research Resource). Tale programma deve mettere a punto una iniziale integrazione di sistemi computazionali dei dati e delle risorse usati per allenare le tecnologie di analisi dei dati, al fine di creare una comunità di operatori a supporto delle ricerche AI e del loro sviluppo. Spetterà al Direttore del NSF individuare le strutture federali e private operanti nel settore della computazione dei dati e fornire a esse le strutture computazionali idonee per entrare a far parte di questo programma.
Come si vede l’Executive Order disegna un quadro molto ampio di interventi e di attività, tutte orientate a sviluppare una forte integrazione fra strutture pubbliche e private operanti nell’ambito della tecnologia dei dati e, in particolare, della AI. Lo scopo è evidentemente quello di costruire una Ai e un sistema di tecnologie di AI rispettose fina dall’inizio della privacy dei cittadini USA e, allo stesso tempo, affidabile e trasparente per rendere l’uso di queste tecnologie nell’ecosistema dell’economia digitale assolutamente affidabile e, dunque, espansibile anche al d fuori del sistema USA.
I limiti dell’Europa
Nulla di tutto questo sembra trovarsi nella visione UE che sottostà alla bozza di Regolamento sulla AI attualmente in discussione e poco di questo sembra emergere anche, almeno a livello di consapevolezza, nei governi degli Stati UE, a cominciare da quello italiano che pure ha visto nel Ministro Urso un protagonista rilevante del dibattito svoltosi nella Conferenza che ha chiuso il G7 in UK.
Speriamo che tanto l’UE quanto i governi nazionali, ma anche il mondo scientifico della UE, sappiano far tesoro degli insegnamenti che emergono sia dalla Dichiarazione di Betcheley che dall’Executive Order di Biden.
Ne va della effettiva capacità competitiva della UE nell’ecosistema digitale mondiale che è in corso accelerato di formazione.