scenario

AI, lavori in corso per trovare le regole giuste: i casi di USA e UE



Indirizzo copiato

Il modo per regolare l’intelligenza artificiale è un tema al centro di un acceso dibattito sia negli Stati Uniti sia nell’Unione Europea: ecco su quali aspetti si sta lavorando e quali sono le tendenze

Pubblicato il 18 set 2023

Mario Dal Co

Economista e manager, già direttore dell’Agenzia per l’innovazione



software ai
(Immagine: https://pixabay.com/geralt)

La domanda se e come regolare lo sviluppo dell’intelligenza artificiale se la sono posta tutti. È subito emersa una varietà di posizioni che preannuncia il sorgere di molti problemi per le aziende che intendono e devono operare sul mercato globale e che rischiano di trovarsi di fronte ad una complicata, contraddittoria, costosa e inefficiente varietà di approcci. Vediamo cosa sta accadendo negli Stati Uniti e in Europa.

AI, le posizioni negli USA

Negli Stati Uniti sono emerse diverse posizioni, sia nell’industria, sia nella politica, in particolare al Congresso e al Senato. Il governo è preso in mezzo: esso coltiva qualche propensione dirigista, come ampiamente dimostra il Chips Act, ma teme di creare ostacoli con un eccesso di regolazione. Sa bene quanto Big Tech, ma anche il venture capital, siano contrari alla regolazione delle nuove aree di sviluppo delle tecnologie innovative e come una battaglia per contrastare le applicazioni trovi seguito prevalentemente tra settori che hanno già perduto molto terreno nella difesa dei diritti d’autore e nella raccolta pubblicitaria. Settori che, come le televisioni e la stampa, sono tuttavia importanti per mantenere il consenso politico di cittadini sempre più distratti rispetto all’operato del policy maker.

La proposta bipartisan

Il fronte e gli argomenti di coloro che sono preoccupati dallo sviluppo delle applicazioni di intelligenza artificiale è esteso, la lista delle contumelie si accresce ogni giorno.

Forse per questo, forse per la sostanziale immobilità del governo alle prese con il periodo delle scelte pre-elettorali del Presidente e dei suoi contendenti o avversari, si è creato lo spazio per iniziative bipartisan, come quella dei senatori Richard Blumenthal- democratico e Josh Hawley – repubblicano, rispettivamente presidente e membro del Sottocomitato per la privacy, la tecnologia e la legislazione[1].

La proposta si presenta come un quadro di riferimento completo per creare un sistema di tutela a fronte dell’avanzare dell’intelligenza artificiale e delle sua applicazioni.

“Questo quadro di riferimento bipartisan rappresenta una pietra miliare: il primo progetto legislativo robusto e completo per protezioni dell’IA effettive e applicabili. Dovrebbe metterci sulla strada giusta per affrontare le promesse e i pericoli che l’intelligenza artificiale fa presagire”, ha affermato Blumenthal, ha aggiungendo che “continueremo le audizioni con leader ed esperti del settore, così come altre conversazioni e accertamenti di fatti per costruire una coalizione di sostegno alla legislazione. Requisiti di licenza, chiara identificazione dell’IA, responsabilità, trasparenza e forte protezione per consumatori e bambini: questi principi di buon senso sono un solido punto di partenza”. Hawley ha fatto eco, con richiami alla pancia della classe media e mettendo il Congresso alle strette sulla necessità di agire: “Le nostre famiglie americane, i lavoratori e la sicurezza nazionale sono in gioco. Sappiamo cosa deve essere fatto: l’unica domanda è se il Congresso ha la volontà di portarlo a termine”.

Il framework proposto


Il quadro di riferimento proposto deve fondarsi su alcune scelte strategiche:

  • creazione di una Autorità di vigilanza;
  • abolizione della protezione della Sezione 230 (quella che ha protetto motori di ricerca e social network dal diritto d’autore);
  • difendere la sicurezza nazionale con controlli sull’interscambio con paesi come Cina e Russia;
  • trasparenza da parte delle aziende nei confronti delle attività di training, per garantire la sicurezza, l’accuratezza e la non discriminazione, con sanzioni per le aziende che violano tali criteri;
  • tutela dei consumatori che devono mantenere il controllo sui propri dati ed in particolare limitare lo sviluppo di app che coinvolgano i bambini.

Vediamo questi punti più in dettaglio.

L’autorità di vigilanza indipendente


Il framework si propone di stabilire un regime di licenze gestito  da una Autorità di vigilanza indipendente. Le aziende che sviluppano sofisticati modelli di IA per scopi generali (ad esempio GPT-4) o modelli utilizzati in situazioni ad alto rischio (ad esempio il riconoscimento facciale) dovrebbero essere tenute a registrarsi presso l’organismo di controllo indipendente, che avrebbe l’autorità di verificare le società che richiedono licenze e che collaborerebbe con i procuratori generali dello stato per verificare gli adempimenti richiesti. L’Autorità dovrebbe inoltre monitorare e riferire sugli sviluppi tecnologici e sugli impatti economici dell’IA.

Il nodo della Sezione 230

Il Congresso dovrebbe stabilire che le società di intelligenza artificiale siano ritenute responsabili attraverso l’applicazione dei poteri dell’ Autorità autorità e l’esercizio dei diritti di azione dei privati cittadini quando i loro modelli e sistemi violano la privacy, violano i diritti civili o causano altri danni come immagini deepfake esplicite non consensuali di persone reali, produzione di abusi sessuali su minori materiale proveniente dall’intelligenza artificiale generativa e interferenze elettorali. Il Congresso dovrebbe chiarire che la Sezione 230 non si applica all’IA e garantire che le forze dell’ordine e le vittime possano portare in tribunale le aziende e gli autori del reato.

Il rapporto con Cina e Russia

Il Congresso dovrebbe utilizzare controlli sulle esportazioni, sanzioni e altre restrizioni legali per limitare il trasferimento di modelli avanzati di intelligenza artificiale, hardware e altre apparecchiature verso Cina, Russia, altre nazioni avversarie e paesi coinvolti in gravi violazioni dei diritti umani.

Il valore della trasparenza


Il Congresso dovrebbe promuovere la responsabilità, la due diligence e il risarcimento dei consumatori richiedendo trasparenza alle aziende. Agli sviluppatori dovrebbe essere richiesto di divulgare agli utenti e ad altre aziende informazioni essenziali su dati di addestramento, limitazioni, accuratezza e sicurezza dei modelli di intelligenza artificiale. Gli utenti dovrebbero inoltre avere il diritto a una notifica affermativa quando interagiscono con un modello o sistema di intelligenza artificiale e la nuova agenzia dovrebbe istituire un database pubblico per segnalare quando si verificano incidenti avversi significativi o i guasti causano danni.

Il controllo dei consumatori

I consumatori dovrebbero avere il controllo sul modo in cui i loro dati personali vengono utilizzati nei sistemi di intelligenza artificiale e dovrebbero essere imposti limiti rigorosi alla generazione di intelligenza artificiale che coinvolga i bambini. Le aziende che utilizzano l’intelligenza artificiale in situazioni ad alto rischio o con conseguenze dovrebbero essere tenute a implementare freni di sicurezza e a notificare quando l’intelligenza artificiale viene utilizzata per prendere decisioni avverse.

Blumenthal e Hawley hanno supervisionato l’audizione organizzata dal sottocomitato del Senato il 12 settembre dedicato alle violazioni dei diritti fondamentali che possono derivare dall’intelligenza artificiale e a come possano essere definite le responsabilità delle aziende e del governo. Il 12 settembre sono stati ascoltati: William Dally, capo della ricerca di Nvidia, Woodrow Hartzog, professore di legge all’università di Boston di Legge, Brad Smith presidente di Microsoft.

Regolamentazione AI, le iniziative politiche di ampio respiro

Il senatore Chuck Schumer, leader della maggioranza al Senato, ha tenuto invece il forum del 13 settembre basato su audizioni dei top manager e imprenditori del settore, ma a porte chiuse. Il senatore Schumer porta avanti una iniziativa politica più ampia di quella bipartisan di Blumenthal e Hawley, promuovendo una partecipazione estesa dei senatori alle audizioni.

Gli obiettivi dei Forum del senatore Chuck Schumer sull’intelligenza artificiale

L’iniziativa non sponsorizza nessuna particolare iniziativa legislativa, ma vuole sensibilizzare il decisore legislativo sulla necessità di intervenire in materia di intelligenza artificiale.  Gli obiettivi politici centrali del mio SAFE Innovation Framework sono:

Sicurezza: salvaguardare la nostra sicurezza nazionale con l’intelligenza artificiale e determinare come gli avversari la utilizzano, e garantire la sicurezza economica dei lavoratori mitigando e rispondendo alla perdita di posti di lavoro;
Responsabilità: sostenere l’implementazione di sistemi responsabili per affrontare le preoccupazioni riguardo alla disinformazione e ai pregiudizi, sostenere i nostri creatori affrontando i problemi di copyright, proteggere la proprietà intellettuale e affrontare la responsabilità;
Fondamenti: richiedere che i sistemi di intelligenza artificiale siano in linea con i nostri valori democratici, proteggere le nostre elezioni, promuovere i benefici sociali dell’IA evitando i potenziali danni, e impedire al governo cinese di scrivere le regole della strada sull’intelligenza artificiale;
Spiegare: determinare di quali informazioni il governo federale ha bisogno dagli sviluppatori di intelligenza artificiale e gli operatori per essere un migliore amministratore del bene pubblico, e quali informazioni il pubblico ha bisogno di conoscere un sistema di intelligenza artificiale, dati o contenuti.
Innovazione: sostenere l’innovazione guidata dagli Stati Uniti nelle tecnologie di intelligenza artificiale, compresa l’innovazione in sicurezza, trasparenza e responsabilità – che si concentra sulla liberazione dell’immenso potenziale dell’intelligenza artificiale e il mantenimento della leadership degli Stati Uniti nella tecnologia.  

Alcuni dei più accesi sostenitori della regolamentazione spinta su Big Tech e sull’intelligenza artificiale, come la senatrice Elizabeth Warren, hanno criticato l’iniziativa delle audizioni, accusandole di “essere a porte chiuse senza possibilità di porre domande. Questi miliardari tech vogliono solo condurre la loro lobby nel Congresso”[2]. Anche Hawley ha polemizzato con la mancanza di trasparenza determinata dalla chiusura delle porte alla stampa.

I commenti

I commenti degli stessi testimoni privilegiati non sono mancati. Il Presidente di Microsoft Brad Smith ha sostenuto che occorre un “freno di emergenza” soprattutto per i sistemi di intelligenza artificiale che gestiscono infrastrutture critiche come quelle elettriche o di distribuzione dell’acqua. “Se un’azienda vuole utilizzare l’intelligenza artificiale, ad esempio, per controllare la rete elettrica o tutte le auto a guida autonoma sulle nostre strade o la fornitura idrica. Abbiamo bisogno di un freno di sicurezza, proprio come abbiamo un interruttore automatico in ogni edificio e casa in questo paese per interrompere il flusso di elettricità, se necessario” ha detto al Sottocomitato. Si noti come si dia per scontato non che l’intelligenza artificiale contribuisca alle decisioni umane nella gestione dei sistemi, ma li gestisca direttamente. Ovvero, seguendo la sua impostazione di promotrice estensiva delle applicazioni di intelligenza artificiale, Microsoft pensa a servomeccanismi, che potrebbero essere di nuovo basati su intelligenza artificiale, relegando l’intervento critico della mente umana in un ulteriore istanza decisionale.

Diversa e assai più interessante è stata la posizione di Dally, capo della ricerca di Nvidia, azienda protagonista dello sviluppo dell’hardware, ossia dei processori che macinano i dati necessari al funzionamento di CahtGPT o di qualsiasi altra soluzione di intelligenza artificiale.“L’intelligenza artificiale è un programma per computer, prende un input e produce un output. E quindi ogni volta che potrebbe verificarsi un danno grave, tu desideri che ci sia un essere umano tra l’output di quel modello di intelligenza artificiale e la decisione che può causare quel danno”, ha detto Dally. “Quindi penso che finché stiamo attenti a come utilizziamo l’intelligenza artificiale, per mantenere gli esseri umani nei circuiti critici, penso che possiamo garantire che l’intelligenza artificiale non prenderà il sopravvento per spegnere la nostra rete elettrica o farà cadere gli aeroplani. dal cielo”, ha continuato[3].

Il 13 settembre sono stati ascoltati altri nomi dei vertici delle aziende tecnologiche e di intelligenza artificiale: Sam Altman, CEO di OpenAI, Bill Gates cofondatore di Microsoft, Elon Musk CEO di Tesla, Space X e proprietario di X già Twitter, Mark Zuckerberg CEO di Facebook e della società madre Meta.

I commenti dei partecipanti a porte chiuse non sono mancati, compreso quello assai elogiativo di Elon Musk: “penso che il senatore Schumer abbia reso un grande servizio all’umanità, e penso che da questo meeting verrà qualcosa di buono, forse qualcosa che rimarrà nel futuro della civilizzazione. Penso che, come nello sport, sia importante anche per l’intelligenza artificiale avere un regolatore che costringa io giocatori a rispettare le regole”[4].

Le strettoie dell’Unione europea

Prima dell’emergere prepotente dell’interesse del pubblico e delle aziende per ChatGPT, la Commissione aveva elaborato una bozza di direttiva che lasciava ampio margine agli Stati membri, che potevano individuare più di una autorità nazionale per contrastare gli abusi nell’uso dell’intelligenza artificiale. Dopo il successo della app di intelligenza artificiale generativa, il Parlamento europeo ha elaborato una più stringente proposta, basata sull’approccio differenziato per livelli di rischio, con vere e proprie proibizioni per determinate aree di applicazione che potenzialmente impattano sui diritti fondamentali dei cittadini. Ed ha individuato una sola autorità competente a livello nazionale. Come si vede siamo lontani dall’autorità unica su cui stanno discutendo in modo bipartisan i legislatori americani.

Questa stretta ha portato alla presa di distanza di due paesi, Francia e Germania, preoccupati -sulla base delle istanze delle principali aziende interessate all’uso dell’intelligenza artificiale- di ridurre la competitività dell’industria europea[5]. Altri paesi, tra cui l’Italia con il Garante della Privacy, avevano addirittura scelto la strada del divieto, poi rientrato, all’uso di ChatGPT. Su iniziativa delle aziende tedesche e francesi (tra cui Renault, Siemens) è stata elaborata una presa di posizione critica rispetto al documento del Parlamento europeo, con l’intento di favorire una soluzione più elastica e meno impositiva dal confronto che avverrà tra il Parlamento stesso, la Commissione e il Consiglio.

È facile criticare le iniziative dell’Unione europea in materia di regolazione dei settori innovativi, come è accaduto per la tutela dei dati personali, per il cloud, per le telecomunicazioni. In realtà le scelte della Commissione sono state spesso seguite, magari con adattamenti e attenuazioni, da altri paesi, riconoscendo di fatto alla Commissione il ruolo di apripista. Nel caso dell’intelligenza artificiale potrebbe verificarsi la stessa cosa e va detto che questo ruolo dell’Unione non è semplicemente un merito dovuto alla buona qualità degli studi preparatori, ma è anche il risultato del processo istituzionale che l’Unione deve seguire per poter agire.

Obiettivi e processi in UE

Il fondamento giuridico dell’intervento europeo è la creazione del mercato unico, ovvero l’eliminazione degli ostacoli alla libera circolazione del capitale, del lavoro e alla tutela della concorrenza in ambito europeo. Quando si delineano nuovi mercati, la prima reazione di chi vede minacciate le proprie posizioni da parte delle aziende portatrici di innovazioni è quella di segnalare i rischi connessi all’adozione delle innovazioni stesse.

La prima reazione è quella che si ispira alla antica tradizione luddista, ovvero di contrastare le innovazioni per poter continuare a difendere le proprie porzioni di rendita sul mercato. Ecco allora spuntare i giornali locali e gli altri media preoccupati del furto di diritti, che si può realizzare con i processi di “allenamento” di ChatGPT e di altre simili app. Ecco affacciarsi anche le associazioni dei professionisti dei media, che segnalano i rischi occupazionali determinati dalla “sostituzione” di lavoratori qualificati da parte dei sistemi di intelligenza artificiale. Ecco infine l’allarme di coloro che pensano sempre che le innovazioni porteranno più male che bene, per il rischio che dilaghino fake news e chat divisive alimentate dolosamente da malintenzionati, che possono ricorrere all’intelligenza artificiale per ridurre i costi della produzione di materiali o addirittura per realizzare più estesi e meno costosi attacchi cyber.

Queste categorie di interessi sono fortemente rappresentate a livello nazionale: la loro pressione, soprattutto dei media, è molto efficace sul sistema politico e istituzionale locale, molto meno efficace è la lobby sulla Commissione. Eppure, spesso la Commissione viene criticata per eccesso di interventismo e di regolazione. Un rischio che si è concretizzato di recente per effetto dell’interventismo che ha caratterizzato la fase della pandemia. Qui effettivamente le lobby industriali e dei servizi che di solito operano a livello nazionale, sono riuscite a farsi sentire a Bruxelles, sull’onda della retorica autarchico-protezionista maturata durante la pandemia, che ha risvegliato le nostalgie per la politica industriale interventista, come dimostra la vicenda del Chips Act.

I rischi

A volte, quindi, l’accusa di interventismo eccessivo è motivata, ma il più delle volte l’intervento europeo è la scelta necessaria per attenuare le tendenze localistiche dei governi nazionali che operano costantemente contro e non a favore del mercato unico. Un atteggiamento di lasciar fare da parte della Commissione, non sortisce affatto il risultato di aprire ad una sperimentazione di tipo liberista pragmatico in giro per l’Europa. Al contrario, il lasciar fare della Commissione sortisce l’effetto di segmentare il mercato interno in tanti mercatini locali, ognuno regolato in modo diverso. Con due rischi colossali che si presentano per lo sviluppo di un contesto competitivo e dinamico all’interno di un mercato unico.

Il primo è che per le aziende che ambiscono ad operare sul mercato più largo possibile, oltre all’ostacolo della lingua nazionale debbano superare anche quello di regole in contrasto tra loro e comunque onerose da interpretare e da applicare, con una caduta verticale della loro competitività internazionale.

Il secondo è che si sviluppi un gigantesco, costoso e paralizzante contenzioso giuridico a livello europeo, come risultato delle continue violazioni delle libertà di accesso al mercato unico. Sta maturando a livello della Commissione la consapevolezza dei rischi che comportano l’attuale fase di tensioni internazionali e di tensioni politiche interne ai singoli paesi membri [6]. Sono i rischi che il mercato unico venga messo in discussione per le pressioni nazionalistiche e che ripartano meccanismi protezionistici e blocchi sovranisti tali da ridurre l’efficienza del mercato unico, ricreando ostacoli e introducendo lacci.

Conclusione

Oggi l’Europa è seconda solo agli Stati Uniti per numero di start up sull’intelligenza artificiale, con il 22% del totale, davanti alla Cina (11%) e ad Israele (11%). Ma i paesi europei presi singolarmente scivolano nella graduatoria mondiale, con il solo Regno Unito tra i primi 5[7].

Deve essere questa la preoccupazione principe del legislatore europeo: salvaguardare il mercato unico, creando un unico sistema di controlli e di garanzie a livello europeo e non a livello nazionale, se si vuole che la sfida dell’intelligenza artificiale sia una opportunità per l’economia e la società europea. Ma anche per garantire che i suoi rischi siano posti sotto controllo nel modo più efficace possibile, ossia a livello sovranazionale.


_____

Note

[1])Richard Blumenthal, Blumenthal & Hawley Announce Bipartisan Framework on Artificial Intelligence Legislation, https://www.blumenthal.senate.gov/newsroom/press/release/blumenthal-and-hawley-announce-bipartisan-framework-on-artificial-intelligence-legislation , September 8, 2023.

[2]) Scott Wong, Frank Thorp V, Ali Vitali, Senators voice skepticism about Schumer’s AI summit, NBC News, September 9 2023.

[3]) Scott Wong, Tech execs warn lawmakers to keep AI ‘under the control of people’, NBC News, September 12, 2023.

[4]) CNBC Television, Elon Musk: There is an ‘overwhelming consensus’ that there should be some AI regulation, September 13 2023.

[5]) Jess Weatherbed, European companies claim the EU’s AI Act could ‘jeopardise technological sovereignty’, The Verge, June 30 2023.

[6]) Euroepan Commission, Joint Communication to the European Parliament, The Euroepan Council anth the Council on “European economicx Security Strategy”, Bruxelles, 20.6.2023.

[7]) Erik Bratberg, Raluca Csernatoni, Venesa Rugova, Europe and AI: çLeading, Lagging Behind, or Carving Its Own Way, Carnegie Endowment for International Peace, July 9, 2020

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2