Negli anni più recenti, e con una forte accelerazione nell’ultimo, i progressi nel campo dell’intelligenza artificiale (IA) hanno spinto i governi nazionali, direttamente o attraverso le organizzazioni di cui fanno parte, a istituire commissioni e fora internazionali per occuparsi sempre di più di questa materia con riferimento alle relative opportunità, ma sollevando anche alcune preoccupazioni in merito all’etica, alla privacy, alla sicurezza e, più in generale, all’impatto sociale dell’IA e delle decisioni intraprese con l’ausilio di questa tecnologia.
Sulla base di queste premesse e in vista dell’inizio del percorso che a partire dalla ministeriale di metà marzo di Verona e Trento porterà l’Italia a sviluppare iniziative sull’IA in qualità di presidente di turno del G7, il paper “Innovare con Intelligenza. Linee guida per un’IA responsabile nei settori pubblico e privato” dell’Istituto per la Competitività (I-Com), svolto in collaborazione con Microsoft, ha dedicato una parte corposa dell’analisi ai documenti programmatici e alle linee guida dei principali organismi e organizzazioni internazionali, cercando di fornire una panoramica di insieme sui numerosi contributi che cercano di guidare e indirizzare la regolazione dell’IA.
In questo modo, è stato possibile cogliere i punti di contatto e di potenziale divergenza tra queste iniziative e trarre suggerimenti validi per il G7 a guida italiana.
L’interim report dell’AI Advisory Body ONU su un quadro globale di governance dell’IA
Lo scorso 21 dicembre, il comitato consultivo di esperti sull’IA dell’ONU (AI Advisory Body), dopo poco meno di due mesi dal suo insediamento, ha pubblicato l’Interim Report: Governing AI for the Humanity, il quale sarà in fase di consultazione fino al prossimo 31 marzo al fine di raccogliere spunti utili per la versione finale del rapporto – prevista entro il 31 agosto 2024 – che conterrà raccomandazioni specifiche, fra l’altro, su metodologie per la valutazione dei rischi e per garantire l’interoperabilità dei differenti modelli di governance, fornendo casi studio relativi a contesti specifici, in particolar modo riferiti all’open source, all’IA nel settore finanziario, nonché alla proprietà intellettuale, ai diritti umani e all’impatto sul mondo del lavoro.
Il documento contiene 5 principi guida e 7 funzioni istituzionali di rigidità crescente (collegate a 15 sotto-funzioni), di cui la futura governance dell’IA dovrebbe occuparsi. In particolare, i primi si rivedono in: inclusività; interesse pubblico; governance dei dati; partecipazione; diritto internazionale. Le seconde spaziano dalla valutazione delle direzioni e delle implicazioni future dell’IA per informare e guidare l’attività dei policymakers, passando per il rafforzamento dell’interoperabilità delle iniziative di governance emergenti tramite un Quadro di Governance Globale dell’IA emanato da un consesso internazionale, dallo sviluppo e l’armonizzazione di standard e framework per la gestione dei rischi, alla promozione della collaborazione internazionale per lo sviluppo di talenti, capacità e infrastrutture computazionali, dataset di alta qualità, condivisione di modelli open-source responsabili e strumenti pubblici abilitati dall’IA per raggiungere gli Obiettivi di Sviluppo Sostenibile, sino alla segnalazione di incidenti e al coordinamento della risposta alle emergenze derivanti da un uso improprio dell’IA.
I punti critici dell’Interim Report
Tra i diversi punti critici dell’Interim Report – che auspicabilmente saranno risolti nel rapporto finale – desta qualche dubbio la vaghezza del principio relativo al ruolo del diritto internazionale, in merito al quale l’AI Advisory Body dovrebbe identificare più nel dettaglio i possibili danni specifici per i diritti umani, nonché chiarire come il diritto internazionale possa prevenirli, mitigarli e/o porvi rimedio.
Altrettanto rilevante è il punto in cui si richiama l’effettiva partecipazione di attori non statali nelle discussioni inerenti la governance dell’IA. Se non c’è dubbio che l’ultima parola nel contesto ONU spetti agli Stati, appare cruciale che in tale sede si evidenzi il ruolo della società civile, degli esperti, del mondo accademico, nonché delle organizzazioni che si occupano di diritti umani e della definizione degli standard applicabili all’IA.
Il punto di vista Ocse e l’importanza della definizione di sistema di IA
Facendo un passo indietro dal punto di vista cronologico, a maggio 2019 l’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) ha emanato i suoi Principi sull’IA, ad oggi sottoscritti da 46 Paesi. Essi sono strutturati in 5 regole valoriali e 5 raccomandazioni per i policymaker, aventi lo scopo di promuovere un utilizzo dell’IA che sia innovativo, sicuro e affidabile, rispettoso dei diritti umani e dei valori democratici, adottando un approccio pragmatico e flessibile affinché tali regole e raccomandazioni resistano al passare del tempo.
Le regole valoriali sono: crescita inclusiva, sviluppo sostenibile e benessere; centralità della persona ed equità; trasparenza e spiegabilità; robustezza, sicurezza e protezione; responsabilità. Accanto a tali regole si collocano le 5 raccomandazioni che i Paesi aderenti dovrebbero tenere in considerazione per l’implementazione delle politiche nazionali e per la cooperazione internazionale, e che includono temi quali gli investimenti in R&S, il sostegno verso un ecosistema digitale per lo sviluppo di un’IA affidabile, la diffusione delle regulatory sandbox, nonché la cooperazione con gli stakeholders per costruire adeguate competenze in materia.
Nonostante i Principi non abbiano natura vincolante, sono caratterizzati da un’importante autorevolezza, anche perché costituiscono le prime linee guida approvate da un consesso intergovernativo sul tema.
E infatti, la definizione di “AI system”[1] – da ultimo modificata lo scorso novembre – è stata recepita nel testo dell’AI Act europeo. Tra le principali ragioni alla base dell’aggiornamento di tale nozione vi è l’intenzione di voler chiarire che gli obiettivi di un sistema di IA possono essere espliciti o impliciti, e quindi determinabili non solo dall’essere umano, ma anche da interazioni tra i prompt dell’utente che si avvale di tali sistemi, così come nel caso di un disallineamento imprevisto tra input e output effettivo.
Inoltre, tra gli output sono ora ricompresi i “contenuti” (come testo, video o immagini), così da chiarire esplicitamente l’applicabilità dei Principi anche ai sistemi di IA generativa. Ulteriore modifica di rilievo riguarda il riferimento all’adattabilità, riconoscendo in tal senso la possibilità che alcuni sistemi di IA possano evolversi dopo la loro progettazione e distribuzione, soprattutto se basati su tecniche di apprendimento automatico. Data la rilevanza di quest’unica ma allo stesso tempo fondamentale definizione, lo scorso 5 marzo l’OCSE ha fornito un apposito memorandum esplicativo.
La dichiarazione di Bletchley Park
L’1 e il 2 novembre scorso il Regno Unito ha ospitato il primo AI Safety Summit, che ha riunito allo stesso tavolo rappresentanti governativi di 28 Paesi e dell’Unione Europea, alla presenza degli esponenti delle principali aziende del settore, al fine di discutere della direzione da intraprendere affinché l’umanità abbia a disposizione un’IA responsabile e sicura. Il prodotto di questa importante iniziativa politica si è rivisto nella cosiddetta “Dichiarazione di Bletchley Park”, sottoscritta da tutti e 29 i partecipanti istituzionali (tra i quali Stati Uniti, Cina e Unione Europea). Un punto ricorrente nella Dichiarazione concerne il riconoscimento del fatto che la regolazione dell’IA può basarsi su approcci differenti dovuti alle circostanze nazionali e ai framework normativi applicabili. Per tale ragione, occorrerebbe richiedere agli attori che sviluppano IA una maggiore trasparenza di tali sistemi, nonché responsabilizzare gli stessi attraverso l’istituzione di elevati standard di sicurezza e di valutazione dei rischi volti alla tutela dei relativi utilizzatori, puntando prioritariamente sulle misure tecnologiche e poi sulla definizione di regole giuridiche, oltre che sulla collaborazione e la cooperazione multi-stakeholder.
Le iniziative della Banca Mondiale e dell’OMS
Altro organismo internazionale che negli ultimi anni ha fornito un contributo di rilievo per la costruzione di una governance in materia di IA è la Banca Mondiale, che nel 2020 ha pubblicato il report “Artificial Intelligence in the Public Sector. Maximizing Opportunities, Managing Risks”, il cui titolo esplicita sin da subito il ragionamento di fondo: massimizzare le opportunità (ad esempio, per contrastare la corruzione, sostenere il settore sanitario e giudiziario, nonché favorire il coinvolgimento dei cittadini, il public procurement e le attività di audit) e, al contempo, gestire i rischi derivanti dall’uso dell’IA nel settore pubblico (performance, fiducia e bias; cybersicurezza; controllo; privacy).
Il tema dell’utilizzo dell’IA nel settore pubblico centrale nel G7 a guida italiana
In particolare, lo scopo è quello di stimolare la modernizzazione del settore pubblico attraverso l’IA e le sue applicazioni, suggerendo due priorità: da un lato, l’adozione di politiche e quadri di governance che promuovano, al contempo, un’IA umano-centrica e la massimizzazione delle relative opportunità; dall’altro, gli investimenti in capitale umano e infrastrutture digitali.
Il tema dell’utilizzo dell’IA nel settore pubblico sarà centrale, secondo gli ultimi annunci, anche durante la Presidenza italiana del G7, attraverso la messa a terra di una serie di iniziative, tra cui un Compendio sui Sistemi Pubblici Digitali che si interessi della fornitura e dell’accesso a servizi pubblici digitali efficienti, inclusivi e sicuri, condividendo best practices e use cases adottati dai membri del G7, nonché un Toolkit per lo sviluppo e l’uso etico di applicazioni di IA nel settore pubblico, che si fondi sul rispetto dei valori democratici che caratterizzano i Paesi del G7.
Altro contributo di rilievo sulla definizione di principi etici e di governance applicabili all’IA è stato fornito dall’Organizzazione Mondiale della Sanità (OMS). Infatti, a giugno 2021 è stato pubblicato il report “Ethics and Governance of Artificial Intelligence for Health” contenente linee guida e raccomandazioni in merito allo sviluppo, all’applicazione e all’uso delle tecnologie di IA nel settore sanitario, con particolare riferimento ad alcuni ambiti strategici quali ricerca sanitaria, sviluppo di farmaci, gestione e pianificazione dei sistemi sanitari e monitoraggio della salute pubblica.
Particolarmente interessante l’enfasi posta sul partenariato pubblico-privato e sui modelli di co-regolamentazione tra governi e settore privato, mentre per il settore pubblico viene specificato che l’adozione di un sistema di IA per scopi sanitari dovrebbe verificarsi solo a seguito di un confronto democratico e multi-stakeholder, includendo i pazienti e i rappresentanti dei gruppi minoritari, anche al fine di evitare che l’IA – o meglio, l’uso che se ne potrebbe fare – possa creare o amplificare le diseguaglianze sociali o sanitarie già in essere.
Il processo di Hiroshima nell’ambito del G7
La presidenza giapponese del G7 ha dato vita nel corso del 2023 al cosiddetto Processo di Hiroshima, grazie al quale si sono definiti gli 11 Principi Guida e un Codice di condotta volontario per un’ampia gamma di soggetti come sviluppatori, distributori e utilizzatori di sistemi di IA avanzati. In particolare, quest’ultimo è stato plasmato sulla base dei Principi Guida appena richiamati, che a loro volta sono sostanzialmente allineati rispetto a quelli visti per l’OCSE.
Più nel dettaglio, il Codice contiene indicazioni specifiche pragmatiche e tra le più interessanti si possono annoverare le seguenti:
- l’esecuzione di test da eseguirsi in ambienti sicuri durante l’intero ciclo di vita dei sistemi di IA, con una particolare attenzione per le fasi pre-commercializzazione, al fine di implementare i rimedi opportuni;
- promuovere la ricerca e la segnalazione di problemi e vulnerabilità anche da terze parti e utenti, anche tramite sistemi premiali e incentivi;
- sviluppare e implementare politiche organizzative di gestione e mitigazione dei rischi, da aggiornarsi costantemente, garantendo allo stesso tempo la formazione continua del personale;
- impegnarsi nello sviluppo dell’IA a beneficio di tutti, in linea con gli Obiettivi di sviluppo sostenibile dell’ONU, dando priorità alla gestione responsabile dell’IA, all’alfabetizzazione digitale e alla collaborazione con la società civile;
- contribuire allo sviluppo e all’adozione di standard tecnici e di prassi internazionali, con particolare riferimento a metodologie di test sui dati, meccanismi di autenticazione e provenienza dei contenuti, politiche di cibersicurezza e di reporting, nonché a misure per identificare i contenuti generati dall’IA;
- adottare misure di gestione della qualità dei dati sin dalla fase di raccolta e creazione dei dataset, al fine di mitigare i bias by design. Tra le misure indicate rilevano la trasparenza, tecniche di addestramento privacy-oriented e il fine-tuning del sistema di IA affinché preservi la proprietà intellettuale e i contenuti coperti da diritto d’autore.
Il Codice di Condotta, pur non essendo giuridicamente vincolante, è immediatamente applicabile e data l’autorevolezza del consesso da cui proviene, rappresenta un utile strumento per quelle organizzazioni che intendano dimostrare una maggiore attenzione dei sistemi di IA da loro sviluppati, distribuiti o comunque utilizzati. Peraltro, la Presidenza italiana del G7 intende sviluppare, insieme alle parti interessate, un meccanismo di monitoraggio volontario del Codice in questione.
Punti di contatto e di potenziale divergenza delle iniziative esaminate
Avendo delineato le linee guida e i documenti programmatici dei principali fora a livello internazionale che si stanno occupando di IA, appare opportuno ora soffermarsi sull’analisi dei rispettivi punti di contatto e di potenziale divergenza che sono emersi. Innanzitutto, si è ravvisato un diffuso consenso sui principi etici e di sicurezza da applicare all’IA, oltre che in termini di cooperazione internazionale e collaborazione multi-stakeholder. Fa ben sperare, peraltro, che vi sia quantomeno unità di intenti nel riconoscere l’importante legame tra governance dell’IA e governance dei dati, nonché la centralità degli investimenti per accompagnare lo sviluppo delle tecnologie di IA con opportune competenze e infrastrutture necessarie al suo impiego a beneficio di tutti.
D’altra parte, sono emersi alcuni punti di divergenza, su cui sarà necessario continuare a discutere. In primo luogo, risulta ancora acceso il dibattito sulla potenziale valenza abilitante dei modelli di IA open-source (come evidenzia l’Interim Report dell’AI Advisory Body dell’ONU), i quali se da un lato possono essere considerati come funzionali a uno sviluppo dell’IA libero, aperto e trasparente, da taluni sono considerati più rischiosi in quanto di facile accesso per usi malevoli. In secondo luogo, l’approccio verso una regolamentazione rigida o, viceversa, flessibile sarà un altro aspetto dirimente per lo sviluppo e l’utilizzo dell’IA. In terzo luogo, soprattutto in seno all’ONU, sta emergendo una maggiore attenzione sull’impatto ambientale ed energetico delle soluzioni di IA, su cui non pare si sia sviluppato ancora un consenso sufficiente, come dimostrano formulazioni abbastanza generiche negli altri documenti esaminati. In ultimo, il riferimento esplicito verso l’importanza di identificare criteri e meccanismi per l’individuazione della responsabilità in caso di danni causati da decisioni basate su algoritmi di IA sembra emergere chiaramente nei documenti esaminati con riguardo a ONU, Banca Mondiale, OMS e OCSE. Diversamente, il G7 e la Dichiarazione di Bletchley Park non si soffermano esplicitamente su questo aspetto.
Verso la prima convenzione internazionale sull’intelligenza artificiale
Un punto rilevante, anche se finora piuttosto trascurato in tutti i documenti analizzati, compresi quelli che scaturiscono da consessi di Paesi like-minded come il G7, riguarda l’adesione a principi e valori democratici nello sviluppo, nella distribuzione e nell’utilizzo di soluzioni di IA, ad esempio prevedendo precisi limiti alla censura dei governi sia rispetto ai dati di input che di output dei modelli.
Un tema che è emerso prepotentemente con la rapida diffusione unita a una larga accessibilità dei Large Language Model e i conseguenti provvedimenti restrittivi di diverse nazioni, a cominciare dalla Cina.
Si tratta di un aspetto che è invece centrale nella bozza della prima convenzione internazionale sull’intelligenza artificiale, attualmente in discussione presso il Comitato sull’IA (CAI) del Consiglio d’Europa, il cui iter dovrebbe concludersi entro il mese di maggio. Quest’ultima può certamente rappresentare un passaggio storico nella regolamentazione dell’IA sul piano internazionale, anche se va evidenziato che la maggiore o minore significatività e autorevolezza di un simile quadro normativo dipenderà da quello che sarà il testo finale e, in particolare, dall’inclusione o dall’esclusione del settore privato dal rispettivo ambito di applicazione.
Conclusioni
Parallelamente, il G7 a guida italiana potrebbe essere il consesso ideale per sottolineare l’importanza di un’IA aperta e allo stesso tempo sicura, potendo avvalersi di una struttura snella e rappresentativa di quei Paesi, a partire dagli USA, che ospitano molti dei player principali, favorendo in tal senso la possibilità di esercitare la giusta pressione su altri consessi partecipati da Paesi con sistemi politici autoritari, se non dittatoriali. Al contempo, per gli stessi motivi, il G7 sotto la presidenza italiana potrebbe approfondire forme di collaborazione pubblico-privato da estendere anche alla formazione e al mercato del lavoro, tema sul quale si concentrano molte preoccupazioni, specie in Paesi come il nostro.
Note
[1] “An AI system is a machine-based system that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments. Different AI systems vary in their levels of autonomy and adaptiveness after deployment”.