Eppur si muove qualcosa anche negli USA sul fronte della regolazione dell’intelligenza artificiale (IA). Così verrebbe da dire guardando agli impegni che la Casa Bianca ha strappato alle aziende leader dell’IA generativa (Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI), annunciati il 21 luglio scorso con tanto di photo opportunity accanto al Presidente Biden.
Molti hanno fatto notare la natura volontaria degli impegni, altri il wording (volutamente?) ambiguo, forse per limitare la possibilità di contenziosi legali. Si tratta tuttavia di uno sviluppo da non sottovalutare, soprattutto se si guarda al più ampio contesto, piuttosto trascurato nel dibattito europeo focalizzato sull’AI Act, elevato a secco contraltare del laissez faire statunitense, in una logica puramente binaria.
Contesto statunitense in realtà più complesso e che vogliamo qui sinteticamente analizzare, scansionandolo in tre parti: le iniziative avviate già negli anni scorsi, prima che ChatGPT e i suoi simili venissero lanciati, l’accelerazione impressa dall’IA generativa, infine gli interventi che potremmo attenderci di qui alla conclusione dell’attuale mandato presidenziale, che scadrà nel gennaio 2025 ma che di fatto terminerà già alcuni mesi prima con le elezioni di novembre.
Il Blueprint for an AI Bill of Rights e l’AI Risk Management Framework
Tra le diverse attività messe in campo dall’amministrazione Biden sul fronte della regolazione dell’IA, ne spiccano in particolare due, per solidità, ampiezza di approccio e interlocuzione con gli stakeholder: il Blueprint for an AI Bill of Rights e l’AI Risk Management Framework.
La prima è stata promossa direttamente dalla Casa Bianca e dal suo Ufficio per le politiche della scienza e della tecnologia, la seconda dal National Institute of Standards and Technology (NIST), agenzia tecnica del Dipartimento del Commercio. Entrambe condividono un lungo percorso di confronto con gli stakeholder, iniziato nel 2021, poco dopo l’arrivo della nuova amministrazione. Il Blueprint è stato varato nell’ottobre del 2022, il Framework nel gennaio del 2023.
I 5 principi per un’IA etica
Seppure basandosi sullo stesso approccio per un’IA responsabile, hanno finalità piuttosto diverse. Il primo definisce delle linee guida etiche, basate su 5 principi: sicurezza ed efficacia; protezioni da discriminazioni algoritmiche; privacy; notifica e spiegazione; alternative umane, attenzione e ripiego. Il secondo punta a dare delle direttive tecniche a chi sviluppa e usa prodotti AI per gestire al meglio i potenziali rischi emergenti durante il loro intero ciclo di vita, articolandole in quattro funzioni (Govern, Map, Measure e Manage). Sono tuttavia entrambi documenti non vincolanti e dunque rimessi alla libera volontà degli attori ai quali sono destinati. Dunque, si tratta al più di soft regulation, più o meno paragonabile agli orientamenti etici per un’IA affidabile, definiti a livello europeo già nel 2019. Uno step certamente significativo ma anche un semplice antipasto dell’AI Act, la portata principale dell’impianto normativo comunitario.
L’accelerazione impressa dall’IA generativa
I vagoni del Blueprint e del Framework erano già giunti a destinazione o comunque troppo vicini alla stazione di arrivo per tener conto del ciclone portato dall’IA generativa, a partire dal lancio di ChatGPT avvenuto nel novembre scorso. Il consumo di massa dei nuovi tool immessi sul mercato nonché la possibilità di integrare a cascata i cosiddetti modelli fondazionali da parte di altri sviluppatori hanno da un lato creato un hype per le tecnologie IA che non si era mai visto in precedenza, dall’altro hanno aumentato la portata dei timori ad esse associati. Secondo un’inchiesta apparsa nei giorni scorsi sul Wall Street Journal, sembra che il Presidente Biden in persona abbia chiesto ai suoi collaboratori di interrogare i tool IA in sua presenza su una serie di questioni anche complesse, tra le quali un oscuro caso approdato alla Corte Suprema, e sia rimasto sorpreso e al tempo stesso sconvolto dalle potenzialità di questi strumenti. In positivo ma anche in negativo. Confermate, in questo secondo caso, dalle immagini poi rivelatesi false di un attacco al Pentagono, frutto dell’IA generativa e diffuse viralmente in rete.
Per questo, Biden si è affrettato a convocare a maggio le aziende al centro di questa rivoluzione (Google, Anthropic, Microsoft e OpenAI) e ha promosso a giugno un incontro con alcuni dei massimi esperti e ricercatori a San Francisco. La firma degli impegni da parte delle aziende (passate da 4 a 7 per tenere conto anche di Amazon, Inflection e Meta, che pure sono molto attive nel campo con prodotti già lanciati o a uno stadio avanzato di maturazione) discende dunque dal filone di soft regulation, nel quale si inserivano il Blueprint e il Framework.
Adattato sia nell’enfasi che nell’urgenza alle nuove sfide poste dall’IA generativa. Ad esempio con una forte attenzione alla proprietà intellettuale o a sistemi di watermarking che etichettino i prodotti IA, consentendo agli utenti di distinguerli facilmente da quelli umani. Oppure alla condivisione da parte delle aziende di informazioni sulla gestione dei rischi e alla possibilità da parte di terzi di controllare eventuali vulnerabilità. Ma quel che è nuovo è che, a differenza del Bill e del Framework, essendoci in questo caso degli impegni concreti da parte delle aziende, potrebbero esserci delle conseguenze a livello legale in caso di mancato rispetto.
Chiaramente questo potrebbe avvenire solo in casi accertati di dolo o colpa grave rispetto ai principi pur ampi evocati nel testo concordato ma si tratta pur sempre di un primo passo. Anche se di certo non appare l’ultimo.
Le iniziative in cantiere
Al netto di possibili interventi specifici o di portata più limitata o ancora di tentativi che appaiono più velleitari, sono tre i principali fronti aperti o che dovrebbero aprirsi nei prossimi mesi a Washington.
I Piani di IA delle agenzie federali
Innanzitutto, occorre portare a termine quello che era già previsto e che è stato solo parzialmente attuato, vista anche la minore attenzione prestata all’argomento fino allo scorso anno. Nel 2019, il presidente Trump, che pure aveva stoppato ogni velleità di una strategia nazionale coltivata dal suo predecessore anche per rispondere alle ambizioni cinesi, ha emesso l’ordine esecutivo 13859, intitolato “Mantenere la leadership americana nell’intelligenza artificiale”. L’ordine chiedeva alle agenzie federali di sviluppare piani di regolamentazione dell’IA nelle proprie aree di competenza. Ma, a dicembre 2022, soltanto 5 delle 41 principali agenzie avevano eseguito tale ordine e solo una, il Dipartimento della salute e dei servizi umani (HHS), ha presentato un piano approfondito. L’attuale amministrazione, dopo aver già firmato un ordine esecutivo rivolto alle agenzie federali per prevenire ogni forma di bias e discriminazione derivante dalle nuove tecnologie e in particolare dall’IA, ha già annunciato che l’Ufficio del Management e del Budget, che sovraintende l’apparato federale, rilascerà a breve linee guida per assicurare lo sviluppo, il procurement e l’uso di sistemi IA che siano in grado di salvaguardare i diritti e la sicurezza dei cittadini americani.
La Strategia nazionale per l’intelligenza artificiale
Parallelamente, l’Ufficio per le politiche della scienza e della tecnologia della Casa Bianca si sta occupando di elaborare quella Strategia nazionale per l’intelligenza artificiale che finora è mancata all’appello. Ha dunque lanciato una consultazione pubblica a fine maggio, basata su un questionario di 29 domande che toccavano i temi più diversi, dalla protezione dei diritti e della sicurezza nazionale all’avanzamento dell’equità e a come rafforzare i diritti civili (a livello anche internazionale), dalla promozione di democrazia, crescita economica e “buoni” posti di lavoro all’innovazione nei servizi pubblici. Alla scadenza della consultazione, avvenuta a luglio, hanno risposto 491 soggetti. Tanti o pochi? Rispetto alla dimensione statunitense e alla rilevanza del tema, che ha ormai oltrepassato il perimetro degli addetti ai lavori, sembrano un po’ pochi. Considerati gli aspetti tecnici, ulteriormente accentuati dagli ultimi sviluppi, di cui neppure gli esperti conoscono ancora tutte le possibili implicazioni, il numero appare più ragionevole. Su queste basi, vedremo i tempi nonché ambizione e strumenti della strategia nazionale USA ma è probabile che non si debba attendere molto.
Il fronte congressuale
Più complicato ma anche probabilmente più ambizioso il terzo possibile fronte, quello congressuale. Che, ricordiamolo, ha visto per ora fallire tutti i tentativi di regolamentazione in ambito digitale, presentati alla Camera e al Senato negli ultimi anni. Ma dove sono pure passati in tempi relativamente veloci provvedimenti importanti su materie affini, come il Chips and Science Act che ha battuto sul tempo (e ahinoi soprattutto per risorse impegnate) il Chips Act UE.
La differenza tra i due possibili risultati la fa ovviamente il livello di consenso bipartisan in assemblee divise al loro interno e con maggioranze diverse (il Senato per un soffio a maggioranza democratica, la Camera dei Rappresentanti in mano ai repubblicani). A fine giugno, è stato proprio il leader della maggioranza democratica al Senato, Charles Schumer, a presentare in prima persona il SAFE Innovation in the AI Age, una proposta di legge che vorrebbe essere il contraltare dell’AI Act europeo. Con l’ambizione esplicitamente dichiarata di voler diventare la regolamentazione di riferimento a livello mondiale, mantenendo la barra dell’innovazione più in alto di quanto non facciano altri tentativi nel mondo, a partire da quello UE.
Per trovare un equilibrio diverso tra innovazione e protezione dai rischi, Schumer ha annunciato che in autunno organizzerà al Senato qualcosa che non si era mai visto nella lunga storia del Campidoglio USA: un ciclo di almeno 9 AI insight forum che riuniscano tutti i soggetti più qualificati sui diversi temi, secondo una procedura che assicuri piena trasparenza e massima partecipazione, e che li facciano discutere insieme ai senatori dei principali temi sui quali dovrà intervenire l’AI Act statunitense. Che negli intenti di Schumer dovrebbe puntare a raggiungere quattro obiettivi principali:
- Sicurezza, prevedendo guardrail per proteggere gli Stati Uniti dall’uso dell’IA da parte di attori malintenzionati, preservando al contempo la sicurezza economica americana preparando, gestendo e mitigando gli impatti sulla forza lavoro.
- Responsabilità, promuovendo pratiche etiche che proteggano i bambini, le fasce vulnerabili e i detentori di proprietà intellettuale.
- Valori democratici, garantendo algoritmi in linea con i valori della libertà umana, diritti civili e giustizia.
- Spiegabilità, superando il problema della c.d. “scatola nera”, sviluppando sistemi che spieghino in maniera accessibile a tutti gli utenti come i sistemi di intelligenza artificiale prendano decisioni e raggiungano conclusioni.
Due squilli di tromba per i decisori UE
Come si può ben dedurre da queste brevi note su quanto sta avvenendo e quanto potrebbe accadere nei prossimi mesi a livello di policy e regolamentazione USA, è indubbio che l’irrompere dell’AI generativa abbia accelerato un processo di convergenza già in atto tra le due sponde dell’Atlantico. Peraltro, l’Amministrazione Biden sta lavorando alacremente anche a livello internazionale, in particolare all’interno del G7, per accrescere la collaborazione su questi temi e identificare principi e regole comuni (almeno ai Paesi che condividano i valori democratici). Azione che è stata peraltro ribadita recentemente nel comunicato congiunto rilasciato in occasione dell’incontro tra Biden e Meloni (che ha peraltro un significato reso maggiore dalla Presidenza italiana nel 2024).
Tuttavia, non può sfuggire che qualora gli Stati Uniti, che ricordiamolo sono oggi più che mail il Paese leader tecnologico ed economico dell’IA, primato ulteriormente consolidato grazie all’IA generativa, si dotino di una strategia nazionale e di una legge paragonabile al nostro AI Act, i sogni di Brussels effect coltivati da noi europei andrebbero a farsi benedire o quantomeno sarebbero messi subito in discussione. Prima ancora che le regole UE diventino esecutive.
Conclusioni
Questo naturalmente non vuol dire che l’Europa non debba continuare il suo percorso e fermarsi a metà strada. O attendere il proprio partner transatlantico. Dovrebbe però servire ai decisori UE come monito in due direzioni diverse ma complementari: dare adeguato spazio all’innovazione nell’AI Act, minimizzando i costi, in particolare per le startup di oggi e di domani, e riprendere le redini del Piano coordinato sull’AI che avrebbe dovuto appunto coordinare e allo stesso tempo monitorare gli investimenti pubblici e privati a livello europeo (ma che di fatto è un meccanismo piuttosto spuntato, con i diversi Stati membri andati ciascuno per la propria strada e con pochi progetti davvero transeuropei adeguatamente finanziati).
Senza intervenire su questi due aspetti, la collaborazione tra i partner transatlantici rischia di partire profondamente sbilanciata. Con orizzonti di gloria da questa parte dell’Atlantico tutt’al più limitati a pochi sporadici successi o, ancora peggio, ai tanti connazionali protagonisti della rivoluzione in atto dall’altra parte dell’oceano.