Uno dei vantaggi di un sistema globalizzato è la possibilità, per i legislatori di uno Stato, di osservare le scelte effettuate e le decisioni prese rispetto a temi trasversali da coloro che ricoprono lo stesso ruolo in un contesto geopolitico differente. Ciò può essere utile soprattutto quando, a livello nazionale, non si è ancora adottata una strategia determinata su uno specifico argomento.
Nell’attesa di essere investita, al pari degli altri Stati membri, dalle conseguenze dell’auspicata prossima adozione dell’EU AI Act, per l’Italia vi è al momento l’opportunità di verificare i pro e i contro delle strategie di regolazione dell’IA di Stati Uniti e Regno Unito, applicandoli al proprio contesto culturale con lo scopo di ottenere un’impronta consapevole e coerente rispetto ai sviluppi dell’IA già attuali o in previsione.
Dilemmi e strategie di regolazione dell’IA in Europa
Sarebbe ingiusto e sbagliato non riconoscere l’importanza del Regolamento europeo AI Act in corso di discussione e negoziazione a livello europeo in questi mesi. Ingiusto perché significherebbe negare lo sforzo che le istituzioni UE stanno compiendo e sbagliato perché sicuramente si tratta di un tentativo unico a livello internazionale. Diciamo che sarebbe sbagliato anche perché guardare al problema generale delle regole per l’intelligenza artificiale esclusivamente attraverso le lente della legislazione europea rischia di farci sopravvalutare il cosiddetto effetto Bruxelles (Brussels Effect), e cioè quell’effetto attrattivo delle regole europee che modellano l’ambiente commerciale internazionale, elevando gli standard a livello mondiale e portando a una sorta di europeizzazione di molti aspetti importanti del commercio globale, dove le multinazionali estendono volontariamente le regole dell’UE per avere accesso all’ampio e ricco mercato dell’Unione Europea[1]. Il risultato sarebbe il perdere di vista una serie di altri aspetti che pure esistono e che emergono da realtà diverse, come quella del Regno Unito e degli Stati Uniti.
Sarebbe sbagliato, inoltre, perché lo EU AI Act interviene in modo verticale su aspetti prevalentemente tecnici, dove la valutazione del rischio ha importanza centrale, mentre allo stesso livello europeo ci sono importanti iniziative di direttive – pensiamo a quelle in materia di diritti del consumatore e onere della prova nelle cause di risarcimento del danno – dove l’incidenza sulle norme interne può essere perfino maggiore (sia pure facendo leva su un strumento giuridico come la direttiva, che, in sé, è meno penetrante rispetto al regolamento) perché produce norme che modificano le relazioni tra soggetti, anche privati, come sono le norme civilistiche che riguardano la responsabilità civile e il processo[2].
Ma non è questo l’argomento di questo nostro intervento.
Dicevamo della necessità di volgere lo sguardo a esperienze come quella statunitense e britannica perché esse mettono in luce la pluralità di modi (non solo legislativi) attraverso i quali si può perseguire un effetto regolatorio. Il Regno Unito, per esempio, pone l’accento sull’importanza di creare infrastrutture di carattere generale che possano incidere sulle attività di aziende e privati, attraverso la messa a disposizione di ambienti tecnologici condivisi e facilitanti, mentre l’intervento regolatorio dovrebbe essere limitato a interventi settoriali ispirati a una logica pro-innovazione. Profili ancora diversi emergono sul versante statunitense, dove alla centralità del dialogo in corso tra istituzioni politiche e amministrazione si somma la necessità dell’amministrazione stessa di far fronte a una partita particolarmente complessa con l’Europa e le decisioni della Corte di giustizia UE – necessità alla quale si fa fronte con lo strumento dell’Executive Order – dove, per un verso, vi è la pressione delle grandi corporations e, dall’altro, quella dell’opinione pubblica, che trova un canale nel Blueprint for an AI Bill of Rights. Un ulteriore aspetto di questo complesso quadro è costituito dal rapporto tra amministrazione, grandi companies e accademia americana, che in alcune sue componenti più autorevoli (come la Stanford University) ha rivendicato un ruolo nel bilanciamento tra politica, imprese e ricerca universitaria.
Proviamo allora a tracciare prima il quadro delle forze e delle tendenze in atto negli USA, in relazione alle dinamiche interne e internazionali, mettendo in luce la pluralità di mezzi regolatori messi in campo. Vedremo poi alcuni aspetti peculiari delle scelte del Regno Unito e, alla fine, svolgeremo alcune considerazioni in merito ai riflessi prevedibili e/o auspicabili nel contesto italiano.
Le scelte Usa in materia di IA e tecnologie avanzate
Mentre l’Unione Europea, dal 21 aprile 2021, lavora sulla proposta dell’AI Act, anche sul fronte transatlantico la situazione si presenta come magmatica e in continua evoluzione. L’approccio che l’amministrazione Biden sembra aver adottato con riferimento allo scottante tema pare potersi riassumere nella metafora di un caleidoscopio di strumenti con effetti regolatori.
L’Executive Order del 30 ottobre
Già a luglio e poi settembre Biden aveva anticipato una “azione esecutiva” nel contesto degli sforzi della propria amministrazione verso uno strumento legislativo che raccolga consensi bipartisan. Il 30 ottobre è stato emesso lo Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. L’Ordine esecutivo nel sistema delle fonti statunitensi è una dichiarazione del Presidente che ha forza di legge, solitamente basata su poteri conferiti da un corpo normativo già esistente. Viene indicata come una direttiva scritta, firmata e pubblicata dal Presidente, il cui contenuto mira a indicare un percorso per l’operato del Governo e delle amministrazioni pubbliche. Al fine di entrare in vigore, lo strumento – la cui natura non corrisponde a quella legislativa – non ha necessità di intervento da parte né del Congresso (il Parlamento americano), né delle assemblee statali, i quali, caratteristica ancor più rilevante, non hanno alcuno strumento a disposizione per opporvisi. L’unica possibilità che esse hanno per ridurne o svuotarne l’ambito di azione è quella di emanare una legge, o altro atto avente forza di legge, che ostacoli, in concreto, l’attuazione del provvedimento presidenziale, tra cui, ad esempio, una decisione di ritirare la copertura finanziaria necessaria per l’implementazione.
L’abrogazione dell’Executive Order, invece, può derivare esclusivamente dall’emanazione di un provvedimento identico e cronologicamente successivo da parte del medesimo Presidente degli Stati Uniti. Si tratta, dunque, di uno strumento ben diverso dal nostro Decreto del Presidente della Repubblica (DPR) che, in conformità con l’articolo 89, comma 2 della Costituzione, deve essere controfirmato dai Ministri che se ne assumono, dunque, la responsabilità. Si avvicina, forse, più alla figura del Decreto del Presidente del Consiglio dei Ministri (Dpcm), il quale viene identificato come atto amministrativo che può derivare da norme di legge, ma non può autonomamente promuoverle.
Tuttavia, si prospettava troppo lunga l’attesa di un atto con forza di legge sul quale potessero concordare sia i Democratici, sia i Repubblicani all’interno del Congresso. Ecco perché lo strumento dell’Executive Order è stato ritenuto maggiormente in linea con le esigenze di speditezza e di riscontro immediato in merito a un corpus regolatorio che, nelle parole dello stesso Presidente, è necessario per “tenere gli Americani al sicuro” dai rischi connessi allo sviluppo, all’utilizzo ed all’implementazione dei sistemi di Intelligenza Artificiale.
Un nuovo Bill of Rights per l’IA
La prospettiva di un Executive Order non emerge all’improvviso, e ha le sue radici in un documento datato ottobre 2022, quando l’Ufficio per le Politiche Scientifiche e Tecnologiche della Casa Bianca (OSTP) ha pubblicato una vera e propria “mappa” o “piano di azione” – questo il significato italiano del termine inglese “blueprint” – per una carta dei diritti relativa all’intelligenza artificiale[4]. Anche l’utilizzo della locuzione “Bill of Rights” che, nella tradizione statunitense indica i primi dieci emendamenti alla Costituzione e in quella britannica l’atto che, confermando alcuni diritti fondamentali per i sudditi, ha sancito la fine della Gloriosa Rivoluzione del 1689, rivela la prospettiva adottata dagli autori del testo, i quali si pongono l’obiettivo di tutelare i diritti civili e i valori democratici che sono esposti alle prassi applicative connesse all’intelligenza artificiale.
Seguendo una strategia che pare ricalcare i passi compiuti dalle istituzioni europee ormai qualche anno fa, nel testo vengono identificati cinque principi che dovrebbero contribuire a fornire una stella polare per la progettazione, l’uso e l’impiego dei sistemi di intelligenza artificiale. Tuttavia, a parte una somiglianza prima facie, il percorso scelto dall’amministrazione statunitense non si sovrappone totalmente a quello eurounitario, come è chiaro dalle medesime parole chiave che sono state scelte per descrivere i due programmi.
Sin dal Libro Bianco del febbraio 2020[5] la Commissione Europea ha identificato in “fiducia” il concetto al centro della futura disciplina regolatoria. Si tratta di un termine che esprime una prospettiva conservativa e di tutela – non si può, infatti, aver fiducia in qualcosa che non si conosce o di cui non si comprendono le implicazioni – ma, altresì, una visione in senso lato ottimistica circa i risvolti futuri. Secondo lo stesso Libro Bianco “la costruzione di un ecosistema di fiducia è un obiettivo strategico in sé e dovrebbe dare ai cittadini la fiducia di adottare applicazioni di IA e alle imprese e alle organizzazioni pubbliche la certezza del diritto necessaria per innovare utilizzando l’IA”: l’obiettivo è creare una collaborazione fra l’uomo e la tecnologia. Al contrario, il focus delle istituzioni statunitensi, almeno nei termini scelti, sembra essere quello di una vera e propria “protezione” dagli usi scorretti dell’intelligenza artificiale di cui esempi sono forniti nei primi paragrafi della premessa. Tale angolo visuale si riflette anche nelle sfumature dei principi che sono identificati. Stabilendo una comparazione anche soltanto con le Linee Guida EU, emanate nell’aprile 2019[6], risulta evidente come l’istanza statunitense di sicurezza ed effettività dei sistemi rifletta il requisito di robustezza tecnica e sicurezza di matrice eurounitaria; allo stesso modo, la riservatezza dei dati era già stata teorizzata negli stessi termini nel documento EU; la richiesta di informazioni e spiegazioni trova nel documento EU le due declinazioni di trasparenza e responsabilità; la tutela dalle discriminazioni create e aggravate dall’algoritmo era, addirittura, affrontata in maniera più ampia, ponendosi un obiettivo di non discriminazione ed equità.
È, tuttavia, il principio dedicato a “Human Alternatives, Consideration, and Fallback” (“Alternative umane, valutazione e ripiego”) la cartina tornasole dei valori fondanti la strategia americana, che amplia esponenzialmente l’idea di “intervento e sorveglianza umani” espressa nelle Linee Guida dell’Unione Europea. La prospettiva di un momento, all’interno del processo di sviluppo o nella fase esecutiva del sistema di IA, in cui lo stesso, automaticamente o su input, reindirizzi l’utente a una persona umana in grado di assisterlo o permettergli di continuare nel proprio percorso decisionale, appare certamente prodromica a un’interazione uomo-macchina improntata alla collaborazione, anziché alla prevaricazione dell’uno sull’altro. La formulazione, così come è espressa nei termini attuali, pare però contribuire ancor di più a un substrato di diffidenza e scetticismo sul fatto che il sistema sia in grado di operare autonomamente senza produrre rischi o danni. Occorrerà attendere la formulazione definitiva dell’Executive Order per comprendere quali scelte saranno prese in merito all’implementazione dell’AI Bill of Rights nei domini coinvolti, e cioè quelli relativi alla libertà di pensiero e al diritto di voto, all’uguaglianza, alla privacy e alla salute.
Potrebbe, almeno a prima vista, sorprendere un approccio oltremodo cauto da parte dell’amministrazione di uno Stato che si presenta come tradizionalmente tech-friendly e ispirato, almeno fino a pochi anni fa, all’idea che la tecnologia dovesse essere oggetto non di regolazione dall’esterno, ma soltanto di self-regulation.
A proposito di questa evoluzione va ricordato come il sistema statunitense sia stato oggetto di una serie di decisioni da parte della Corte di Giustizia dell’Unione Europea che, a più riprese, ha ritenuto inadeguata la tutela dei dati dei cittadini europei trasferiti negli Stati Uniti, a causa delle caratteristiche del programma di sorveglianza condotto dal governo statunitense. Per tale ragione, la Corte di Giustizia ha invalidato, nel 2015, l’accordo Safe Harbor e, nel 2020, il cosiddetto Privacy Shield, con la conseguenza che il trattamento dei dati dei cittadini europei da parte delle società con sede negli Stati Uniti (con base giuridica individuata proprio nel secondo accordo) è divenuto illecito. A seguito della sentenza sul caso Schrems II[7], sono ricominciate le negoziazioni per giungere a un nuovo accordo che eliminasse la necessità, per le imprese statunitensi, di spostare non soltanto la propria sede, ma altresì i propri server all’interno di uno Stato membro dell’Unione. L’ultima fase è stata inaugurata, ancora nel mese di ottobre 2022, proprio da un Executive Order del Presidente Biden, allo scopo di implementare il nuovo Data Privacy Framework[8].
Da un lato, dunque, si evince l’esigenza del governo statunitense di rispettare gli impegni presi con gli “alleati” europei in tema di tecnologia e, dall’altro, la necessità di mantenere un controllo con riferimento all’operato delle multinazionali del settore. Si deve tenere in considerazione che la Corte di Giustizia ha creato un precedente con una decisione che potrebbe avere strascichi dello stesso tenore nel caso in cui al grado di tutela fornito dall’EU AI Act, una volta in vigore, non dovessero corrispondere medesimi standard nei territori extraeuropei. Proprio per tale ragione, l’amministrazione Biden sembra, al momento, perseguire una molteplicità di direzioni, coinvolgendo la totalità dei protagonisti del settore.
Tra pubblico e privato: dalle big four alle università
Nel mese di maggio 2023, è avvenuto un incontro di importanza cardinale per il disvelamento di quelle che saranno le prossime mosse nella complessa scacchiera della regolazione statunitense in tema di intelligenza artificiale. Alla Casa Bianca, infatti, sono stati ricevuti gli amministratori delegati delle società indicate come big four nello scenario dell’innovazione in IA: Sam Altman per OpenAI, Dario Amodei di Anthropic, nata da una costola della prima società, Satya Nadella per Microsoft e Sundar Pichai di Google e Alphabet[9]. Ancora una volta, il fil rouge del discorso è stata la necessità, da parte di tali società, e soprattutto di tutte le start-up e imprese di dimensioni inferiori che ad esse guardano come fari nella notte, di assumersi sia l’impegno, sia la responsabilità di proporre sul mercato soltanto prodotti privi di rischi per l’individuo, la società e la sicurezza nazionale, in conformità a quanto dettato nell’AI Risk Management Framework[10] previsto dal National Institute of Standards and Technology (NIST).
Al contrario di quanto molto spesso accade, questa volta non sembrano soltanto parole al vento. Al primo incontro è seguito un altro nel mese di luglio, quando Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI si sono ritrovate nuovamente a Washington DC allo scopo di annunciare di essersi assunte impegni – come si è tenuto a evidenziare nel comunicato della Casa Bianca – su base volontaria, in linea con due dei principi previamente stabiliti, ossia sicurezza e fiducia[11]. Sul primo fronte (quello della sicurezza), la direzione è sdoppiata. Da un lato, ci si propone di testare la tenuta e le capacità dei sistemi di IA, nonché di rendere pubblici i risultati delle valutazioni di rischio. Dall’altro punto di vista, l’obiettivo è la protezione dei sistemi sia da attacchi hacker esterni, sia da minacce interne tramite, tra le altre attività suggerite, la condivisione delle migliori pratiche per prevenire gli usi impropri e ridurre i rischi per la società.
Sul versante della fiducia, la chiave di volta viene individuata nel fornire all’utente i mezzi necessari per comprendere quali contenuti siano stati alterati o generati dall’IA, salvo poi diluirsi in dichiarazioni di intenti pregevoli a livello teorico, ma i cui confini nell’implementazione pratica paiono essere ben più che sfumati. Si richiede, infatti, l’assicurazione che la tecnologia non provochi discriminazione, che rafforzi la tutela della riservatezza e protegga i bambini da un danno non meglio precisato. Ancor più ottimistico e di ampio spettro l’orizzonte di un’IA che sia di ausilio per rispondere alle grandi sfide della società, dalla ricerca sul cancro al cambiamento climatico, a cui viene appaiata la gestione dei rischi dell’IA stessa allo scopo di una piena realizzazione dei propri benefici. Il pericolo che impegni con questo tipo di contenuto restino sulla carta era – e resta –elevato, ma, forse, proprio per questo motivo l’amministrazione statunitense ha pensato di operare in una direzione parallela, coinvolgendo gli esperti che, dall’angolo visuale della ricerca, affrontano le medesime tematiche con una cadenza quotidiana, spesso partecipando a o creando esperimenti nelle cosiddette “sandboxes”[12].
Passando al versante accademico, va ricordato che a fine giugno l’insegna di “Meeting for Artificial Intelligence” aveva raccolto a San Francisco esponenti del governo federale e personalità di spicco del settore, fra cui Fei-Fei Li e Rob Reich, rispettivamente Co-Direttore e Direttore Associato del Centro Human-Centered Artificial Intelligence dell’Università di Stanford, da anni in prima linea nelle varie conversazioni sull’argomento.
Tra i temi trattati, anche la necessità di implementare le risorse destinate alle istituzioni accademiche, tenendo in considerazione dati preoccupanti: sebbene la percentuale di dottori di ricerca in Informatica con interessi focalizzati sull’IA si sia quasi duplicata tra il 2010 e il 2021, soltanto l’1% di essi prosegue la propria carriera in ruoli appartenenti all’amministrazione pubblica, mentre circa il 65% accede a posti di lavoro nelle società private[13]. E si spiega anche così il fatto che, nel 2022, ben trentadue implementazioni significative siano nate nel contesto privato, soltanto tre in ambiente accademico e nessuna sul terreno dell’amministrazione pubblica. Tale dato ha, ovviamente, un impatto anche sulla capacità – e/o sulla volontà – di previsione, analisi e soluzione delle questioni problematiche emergenti in fase di implementazione dei sistemi. Le istituzioni accademiche e no-profit sono più interessate ad arginare le conseguenze rischiose o negative prodotte dallo sviluppo o dall’utilizzo dei sistemi di IA, mentre le imprese private saranno sempre guidate dall’obiettivo di massimizzare i profitti, anche quando ciò significhi rinunciare agli strumenti di tutela. Non basterebbe, dunque, l’impegno che le multinazionali sopracitate sono state caldamente invitate a sottoscrivere, ma sarebbe necessaria una decisa inversione di tendenza verso una sempre maggiore presa di coscienza del ruolo che l’accademia e i centri di ricerca collegati alle istituzioni di istruzione superiore siano in grado di svolgere in uno scenario multiforme come quello all’interno del quale, ormai da anni, ci si muove in maniera ancora incerta.
Il momento di “lancio sulla Luna”, come è stato definito quello corrente nel mondo dell’IA, non può prescindere dal contributo dei ricercatori e dal ruolo dei contesti educativi, come sottolineato anche nel Piano Strategico Nazionale di Ricerca e Sviluppo dell’Intelligenza Artificiale[14]. Gli accademici chiedono di passare dalle parole ai fatti. Mentre l’amministrazione cerca un dialogo sempre più stretto con l’industria e le imprese private, le università e i centri di ricerca richiedono alla stessa amministrazione impegni concreti, tra cui lo stanziamento di risorse federali supplementari per le università. In realtà l’amministrazione aveva annunciato già in maggio la creazione di sette nuovi Istituti Nazionali di Ricerca sull’Intelligenza Artificiale, sostenuti da un investimento economico governativo di circa 140 milioni di dollari[15]. Questa scelta, importante e che comunque fa perno su importanti università, non risponde totalmente alla richiesta di una maggiore capillarità degli investimenti verso gli istituti universitari .
God save the innovation: le scelte UK
Se da un lato dell’Oceano la prospettiva, sebbene con le particolarità sopra evidenziate, pare in linea – e, in alcuni punti, sembri addirittura riflettere – l’approccio comunitario al tema, una visione differente emerge da uno Stato geograficamente molto più vicino all’Unione, ma da essa sempre più distante nei contenuti.
Il Regno Unito ha organizzato un AI Safety Summit a Bletchley Park, vicino Londra – non un luogo causale, ma esattamente dove, durante la Seconda Guerra Mondiale, operavano i cosiddetti Codebreakers guidati da Alan Turing – al quale hanno partecipato 28 Paesi, tra i quali Usa, Cina e Unione Europea, che hanno sottoscritto una dichiarazione sulle applicazioni di IA.
Già nella primavera 2023 era stato svelato il titolo del Libro Bianco confezionato come guida alle prossime fasi della strategia nazionale sull’IA. La frase “Un approccio alla regolazione dell’IA pro-innovazione”[16] delinea immediatamente una distanza fra la prospettiva britannica e quella statunitense: mentre il focus della seconda pare essere quello di porre dei limiti allo sviluppo, quello della prima sembra, invece, teso a fornire agli innovatori una cornice etica e giuridica entro la quale poter operare. Mentre la visione USA sembra, almeno nei toni (vedi sopra) una risposta allo scetticismo e al timore generati nell’opinione pubblica con una forte impronta alla cautela, la visione UK pare introdurre una dinamica collaborativa non soltanto tra IA e uomo, ma altresì fra regolatori e innovatori. Tutto ciò emerge sin dalle premesse: “È necessario l’intervento del governo per migliorare il panorama normativo. Intendiamo sfruttare e costruire sui regimi esistenti, massimizzando i benefici di ciò che già abbiamo, mentre intervenire in modo proporzionato per affrontare l’incertezza e le lacune normative. In questo modo si otterrà un quadro normativo favorevole all’innovazione, progettato per essere adattabile e a prova di futuro, supportato da strumenti per un’IA affidabile, tra cui tecniche di garanzia e standard tecnici. Questo approccio fornirà maggiore chiarezza e incoraggerà la collaborazione tra governo, autorità di regolamentazione e industria per sbloccare l’innovazione, regolatori e l’industria per sbloccare l’innovazione”[17].
L’obiettivo di costruire sui regimi esistenti si esprime in una duplice indicazione di azione. Da un lato, si propone di valorizzare le regolazioni settoriali attualmente in vigore, anche modificandole in modo da includere gli sviluppi tecnologici non esistenti al momento della loro redazione. Dall’altro, esclude la strada di uno strumento normativo omnicomprensivo e richiede piuttosto all’autorità regolatrice di ciascun dominio uno sforzo di implementazione.
Di certo occorrerà attendere qualche tempo per valutare, in primo luogo, se vi sia e, poi, quale sia la strategia foriera di maggiori effetti positivi, se quella della regolazione settoriale (come quella che sembra intraprendere il Regno Unito), o quella di un corpo normativo unitario, teso a coprire la totalità delle possibili applicazioni (come è nella prospettiva dell’EU AI Act).
Naturalmente ciascuno degli approcci presenta sia potenzialità, sia elementi di dubbio: se, da un lato, l’affidamento della “missione” regolatoria a una sola fonte garantisce maggiormente le esigenze di una strategia coerente in tutte le sue sfaccettature, dall’altro occorre verificare se questa impostazione abbia ripercussioni pratiche soddisfacenti. Nella prospettiva inversa, una regolamentazione settoriale assicura risposte più puntuali alle istanze degli operatori del settore, ma nella comparazione deve cedere sul fronte del coordinamento, che potrebbe, nonostante gli auspici, non essere semplice o sempre attuabile.
Altro elemento molto interessante da notare è che la strategia britannica pare interpretare la necessità di regolazione come premessa essenziale alla propria azione; in conseguenza di ciò, è proprio in relazione ad essa che individua ed introduce i propri principi cardine. La cornice dovrà presentarsi ovviamente come pro-innovazione, oltre a essere chiara e proporzionata, affidabile, adattabile e collaborativa. Lo spostamento dell’attenzione degli autori dall’oggetto, ossia l’IA, alle modalità per raggiungere l’obiettivo che su tale oggetto insiste, è una scelta strategica che certamente necessita di una riflessione maggiormente approfondita nel momento in cui i primi germogli inizieranno a essere visibili.
Considerazioni regolatorie sull’Italia
Fino ad ora, anche in considerazione del susseguirsi di quattro governi in una finestra temporale di circa cinque anni, la sensazione è che troppo spesso si sia iniziato un percorso e poi ci si sia ritrovati a tornare sui propri passi velocemente. È dimostrazione di ciò il fatto che anche i nominativi degli esperti ritenuti idonei a formare il gruppo dedicato continuano a subire rotazioni e variazioni[18]. Una scelta che dovrebbe essere fatta per tempo riguarda anche l’individuazione dell’ Autorità nazionale per l’IA che il regolamento europeo richiede.[19] Una nota positiva, quantomeno, risulta essere lo stanziamento di fondi dedicati. Occorre ricordare il Fondo per lo sviluppo di tecnologie e applicazioni di intelligenza artificiale, blockchain e internet of things incardinato presso il Ministero delle Imprese e del Made in Italy[20] la cui dotazione di 45 milioni di euro è andata esaurita in brevissimo tempo a fronte delle molteplici richieste già a settembre 2022. Ma è degno di nota anche l’appena annunciato Fondo di corporate venture capital, che pare essere in fase di studio: lo scopo dichiarato è di veicolare 600 milioni di euro su start-up e piccole e medie imprese innovative, ma anche favorire l’adozione dell’IA nella Pubblica Amministrazione.
Alla catena diretta all’implementazione al massimo delle possibilità dei suddetti contributi, nonché di quanto messo in campo tramite il PNRR, tuttavia, manca ancora un anello imprescindibile: il disegno regolatorio. Gli ultimi spunti sul tema riguardano l’offerta (politicamente molto controversa) della presidenza della cosiddetta Commissione Algoritmi a Giuliano Amato, e la nomina di una diversa e ulteriore commissione creata con un decreto del Presidente del Consiglio (DPCM).
In generale, sarebbe auspicabile un approccio multilaterale come quello statunitense. Infatti, è noto come i progetti concepiti all’interno degli istituti universitari non rappresentino più soltanto una realtà impossibile da ignorare a livello quantitativo, ma anche in grado di fornire tentativi di soluzione decisamente apprezzabili dal punto di vista qualitativo. Tali progetti, peraltro, nella gran parte dei casi sono già stabiliti a livello transnazionale, facilitando un dialogo che, spesso, è più difficoltoso se affrontato dalla visuale politica. Il mirino della possibile strategia governativa, dunque, non dovrebbe concentrarsi solo ed esclusivamente sul settore privato, ma coinvolgere in maniera massiccia il mondo degli istituti di istruzione, tramite i quali affrontare le tematiche etiche e giuridiche necessarie, ma spesso ignorate o posposte. Dalla strategia britannica, invece, si potrebbe mutuare l’approccio regolatorio focalizzato sulle specificità dei singoli domini, prevedendo interventi settoriali guidati da team multidisciplinari di esperti capaci di affrontare con alto grado di dettaglio la totalità degli ostacoli rappresentati dai potenziali rischi, al fine di porre rimedio ad una tecnica legislativa molto frequentemente tacciata di approssimazione, dovuta a una certa mancanza di conoscenze tecniche che ne caratterizza gli autori. Forse, in questa direzione si muove il disegno di legge presentato dal senatore Nicita, riferito alla necessità di trasparenza in merito all’apporto fornito dall’IA in ambito di generazione o co-generazione di contenuti, un argomento con un alto livello di specificità, ma con effetti trasversali in una molteiplicità di ambiti della vita quotidiana.
Il dato relativo alla percezione del tema da parte dell’opinione pubblica può essere un ottimo indicatore rispetto alle necessità che il cittadino medio si attende dalla risposta istituzionale. Il 63% degli italiani ha dichiarato di prevedere un impatto significativo dell’IA sulle proprie abitudini di vita nei prossimi anni e, nello specifico contesto lavorativo, il 57% pensa che l’IA ne modificherà le modalità, mentre è soltanto il 36% a credere a una vera e propria sostituzione di mansioni. Tuttavia, è interessante notare come, rispetto al miglioramento della qualità della vita, l’approccio sia più indirizzato verso la cautela. Infatti, soltanto il 48% degli intervistati afferma che dall’uso dell’IA ricaverà più tempo per sé e soltanto il 29% ne vede una molla per un avanzamento a livello di economia. Tali risultati potrebbero però, dipendere dal fatto che molti aspetti dell’argomento continuano a essere oscuri, con la mancanza di consapevolezza a riflettersi in un clima di dubbi e incertezza.
Insomma, gli esempi e gli spunti a livello internazionale non mancano, si tratta ora di fare alcune scelte importanti per il futuro. Il movimento nelle istituzioni italiane è notevole, ma un profilo chiaro ancora non sembra apparire, mentre si avvicina la presidenza italiana del G7, che dovrebbe essere centrata proprio sull’IA.
Note
[1] L’espressione è stata coniata nel 2012 da Anu Bradford, Columbia Law School, e poi ripresa nel volume del 2020: Anu Bradford, The Brussels Effect. How the European Union Rules the World, Oxford University Press, 2020.
[2] Si vedano le due proposte di direttive del settembre 2022: European Commission, Proposal for a Directive of the European Parliament and of the Council on adapting non-contractual civil liability rules to artificial intelligence (AI Liability Directive), COM(2022) 496 final, 28.9.2022, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52022PC0496
Proposal for a DIRECTIVE OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on liability for defective products
COM/2022/495 final, 28.9.2022, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52022PC0495
[3] Si veda avanti.
[4] https://www.whitehouse.gov/ostp/ai-bill-of-rights/
[5] Commissione Europea, Libro Bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia, testo disponibile al seguente link: https://commission.europa.eu/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en
[6] Gruppo Indipendente di Esperti ad Alto Livello sull’Intelligenza Artificiale istituito dalla Commissione Europea, Orientamenti Etici per un’IA affidabile, testo disponibile al seguente link: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
[7] https://curia.europa.eu/juris/liste.jsf?num=C-311/18
[8] https://www.whitehouse.gov/briefing-room/statements-releases/2022/10/07/fact-sheet-president-biden-signs-executive-order-to-implement-the-european-union-u-s-data-privacy-framework/
[9] https://www.whitehouse.gov/ostp/news-updates/2023/05/04/readout-of-white-house-meeting-with-ceos-on-advancing-responsible-artificial-intelligence-innovation/
[10] https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf
[11] https://www.whitehouse.gov/wp-content/uploads/2023/07/Ensuring-Safe-Secure-and-Trustworthy-AI.pdf
[12] Con tale termine si identifica un ambiente virtuale isolato all’interno del quale sperimentare soluzioni senza che le stesse possano avere come conseguenza effetti negativi sull’esterno.
[13] https://aiindex.stanford.edu/report/
[14] https://www.whitehouse.gov/wp-content/uploads/2023/05/National-Artificial-Intelligence-Research-and-Development-Strategic-Plan-2023-Update.pdf
[15] https://new.nsf.gov/news/nsf-announces-7-new-national-artificial
[16] Department for Science, Innovation & Technology, A pro-innovation approach to AI regulation, testo disponibile al seguente link: https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1176093/a-pro-innovation-approach-to-ai-regulation-amended-print-ready.pdf
[17] Nella versione originale del testo: “Government intervention is needed to improve the regulatory landscape. We intend to leverage and build on existing regimes, maximising the benefits of what we already have, while intervening in a proportionate way to address regulatory uncertainty and gaps. This will deliver a pro-innovation regulatory framework that is designed to be adaptable and future-proof, supported by tools for trustworthy AI including assurance techniques and technical standards. This approach will provide more clarity and encourage collaboration between government, regulators and industry to unlock innovation”.
[18] Si veda Tutto da rifare: nuova Strategia e nuovo gruppo di esperti, in 24ore 30 agosto 2023.
[19] Si veda sul tema Diego Fulco, Autorità nazionale per l’IA: perché deve essere il Garante privacy, in Agenda Digitale 12 ottobre 2023
[20] https://www.mimit.gov.it/it/incentivi/fondo-per-interventi-volti-a-favorire-lo-sviluppo-delle-tecnologie-e-delle-applicazioni-di-intelligenza-artificiale-blockchain-e-internet-of-things
[21] https://www.ipsos.com/it-it/intelligenza-artificiale-entusiasmo-timore-impatto-vita-quotidiana-lavoro
[AS1]Metterei il testo in inglese e poi, tra parentesi, la traduzione in IT