l’approfondimento

Regolare l’intelligenza artificiale, ma come? Europa e Usa a confronto



Indirizzo copiato

L’intelligenza artificiale è una delle tecnologie più potenti del nostro tempo, ma per coglierne le opportunità è necessario prima gestirne i rischi. Finora, negli Usa sono state emesse linee guida non vincolanti nell’ambito della gestione del rischio dell’IA, ma sul tavolo ci sono diverse proposte di legge. In Europa, l’avvento dell’IA generativa ha sparigliato le…

Pubblicato il 24 lug 2023

Niccolò Lasorsa Borgomaneri

Avvocato presso studio legale Marsaglia

Marco Signorelli

Director of Strategy & Operations di DCP



ai act governance; agenti AI autonomi
agenti AI autonomi

L’incremento rapido dell’interesse e dell’adozione della tecnologia dell’intelligenza artificiale, compresa l’IA generativa[1], ha suscitato richieste globali di regolamentazione e leggi corrispondenti. A titolo esemplificativo, Microsoft ha promosso l’elaborazione di “nuove disposizioni normative per i modelli di base altamente capaci di IA”[2] e ha sostenuto la creazione di un’agenzia negli Stati Uniti per l’attuazione di queste nuove norme, nonché l’istituzione di requisiti di licenza per gli enti che intendono utilizzare i modelli di IA più avanzati.

Allo stesso tempo, Sam Altman, CEO di OpenAI, l’azienda sviluppatrice di ChatGPT, ha proposto “l’istituzione di un’agenzia che rilasci licenze per lo sviluppo di modelli di IA su larga scala, norme di sicurezza e test che i modelli di IA devono superare prima di essere resi disponibili al pubblico”[3], tra le altre misure.

Leggi sull’IA: cosa sta accadendo negli Stati Uniti

Il New York Times ha recentemente riportato che gli Stati Uniti sono “in ritardo rispetto agli altri paesi per quanto riguarda la normativa sulla privacy, la parola e la protezione dei minori” in relazione alle richieste di regolamentazione dell’IA. Cecilia Kang, giornalista della medesima testata, ha sottolineato che gli Stati Uniti sono anche “indietro sul fronte delle normative sull’IA”, considerando che “i legislatori dell’Unione Europea sono pronti a introdurre norme per questa tecnologia entro la fine dell’anno” tramite il Regolamento sull’Intelligenza Artificiale. Al contrario, la Cina ha attualmente “il più completo insieme di regolamenti sull’IA al mondo, incluso il recente schema di misure per la gestione dell’IA generativa”.

Finora, negli Stati Uniti sono state emesse linee guida non vincolanti nell’ambito della gestione del rischio dell’IA, la cui seconda versione è stata pubblicata dall’Istituto Nazionale di Standard e Tecnologia nell’agosto 2022[4]. Il Quadro per la Gestione del Rischio dell’IA, destinato a un’applicazione volontaria, mira a consentire alle aziende di “affrontare i rischi nella progettazione, nello sviluppo, nell’utilizzo e nella valutazione di prodotti, servizi e sistemi di IA” alla luce degli standard di ricerca e sviluppo dell’IA in continua evoluzione.

Poco dopo, nell’ottobre 2022, l’Ufficio per la Politica Scientifica e Tecnologica della Casa Bianca ha pubblicato la Bozza per lo Sviluppo, l’Utilizzo e la Distribuzione di Sistemi Automatizzati (Piano per lo sviluppo, l’utilizzo e la diffusione dei sistemi automatizzati)[5], che si basa su cinque principi volti a minimizzare i potenziali danni derivanti dai sistemi di IA.

I principi sono i seguenti:

  • sistemi sicuri ed efficaci;
  • protezione dalla discriminazione algoritmica;
  • tutela della privacy dei dati;
  • notifica e spiegazione;
  • alternative umane, considerazione e contromisure.

A maggio di quest’anno l’Amministrazione Biden-Harris ha annunciato nuovi sforzi per far progredire la ricerca, lo sviluppo e la diffusione di un’intelligenza artificiale (IA) responsabile, che protegga i diritti e la sicurezza degli individui e produca risultati per il popolo americano.

L’intelligenza artificiale è una delle tecnologie più potenti del nostro tempo, con ampie applicazioni. Il Presidente Biden è stato chiaro: per cogliere le opportunità che l’IA presenta, è necessario prima gestirne i rischi. A tal fine, l’Amministrazione ha intrapreso azioni significative per promuovere un’innovazione responsabile dell’IA che metta al centro le persone, le comunità e il bene pubblico e gestisca i rischi per gli individui e per la nostra società, sicurezza ed economia. Ciò include l’importante progetto per una Carta dei diritti dell’IA e le relative azioni esecutive, il Quadro di gestione del rischio dell’IA, una tabella di marcia per la creazione di una risorsa nazionale per la ricerca sull’IA, il lavoro attivo per affrontare le preoccupazioni per la sicurezza nazionale sollevate dall’IA, nonché gli investimenti e le azioni annunciati all’inizio del mese di maggio.

Nonostante i ritardi nella regolamentazione, è importante tenere d’occhio il crescente numero di nuove proposte legislative americane sull’IA presentate a livello federale. A tale proposito, forniamo un elenco in ordine temporale delle più rilevanti importanti leggi nazionali che al momento rappresentano la base e l’ultima evoluzione legislativa negli Stati Uniti:

Proposta di legge per la revoca dell’immunità ai sensi della S. 230 per l’IA generativa

Presentata il 14 giugno 2023, la legge vorrebbe modificare la Sezione 230 del Communications Decency Act[6] che viene definita dagli esperti come “le 26 parole che hanno creato Internet”[7]; Il testo della Sezione 230 infatti è questo: «Nessun fornitore e nessun utilizzatore di servizi Internet può essere considerato responsabile, come editore o autore, di una qualsiasi informazione fornita da terzi». Questa frase solleva i social network dalla responsabilità dei contenuti che vengono pubblicati sulle loro piattaforme.

La modifica di Legge si baserebbe sull’aggiunta di una clausola che toglierebbe l’immunità alle aziende di IA in caso di rivendicazioni civili o azioni penali che coinvolgono l’uso o la fornitura di IA generativa.

I promotori della Legge la presentano con questa introduzione: “Non possiamo commettere con l’IA generativa gli stessi errori che abbiamo commesso con le Big Tech sulla Sezione 230″, ha dichiarato Hawley, appunto uno dei firmatari della modifica di Legge. “Quando queste nuove tecnologie danneggiano persone innocenti, le aziende devono essere ritenute responsabili. Le vittime meritano un giorno in tribunale e questa proposta bipartisan lo renderà realtà”.

“Le aziende produttrici di IA dovrebbero essere costrette ad assumersi la responsabilità delle decisioni aziendali mentre sviluppano i prodotti, senza alcuno scudo legale della Sezione 230”, ha dichiarato il senatore Blumenthal, l’altro promotore. “Questa legislazione è il primo passo nel nostro sforzo di scrivere le regole dell’IA e di stabilire delle salvaguardie mentre entriamo in questa nuova era. La responsabilità delle piattaforme di IA è un principio chiave di un quadro normativo che si rivolge ai rischi e protegge il pubblico”.

Proposta di Legge sulla leadership tecnologica globale

Presentata l’8 giugno 2023, la legge istituirebbe un Ufficio per l’analisi della concorrenza globale per valutare la posizione degli Stati Uniti nelle principali tecnologie emergenti – come l’intelligenza artificiale (IA) – rispetto ad altri Paesi, al fine di informare la politica statunitense e rafforzare la competitività americana.

I promotori della proposta la presentano con queste motivazioni: “Non possiamo permetterci di perdere il nostro vantaggio competitivo in tecnologie strategiche come i semiconduttori, l’informatica quantistica e l’intelligenza artificiale a favore di concorrenti come la Cina”, ha dichiarato il promotore senatore Bennet. “Per difendere la nostra sicurezza economica e nazionale e proteggere la leadership degli Stati Uniti nelle tecnologie emergenti critiche, dobbiamo essere in grado di prendere in considerazione sia le informazioni classificate che quelle commerciali per valutare appieno la nostra posizione. Con queste informazioni, il Congresso può prendere decisioni intelligenti su dove investire e come rafforzare la nostra competitività”.

“Questa legislazione sincronizzerà meglio la nostra comunità di sicurezza nazionale per garantire che l’America vinca la gara tecnologica contro il Partito Comunista Cinese. Non esiste un’unica agenzia federale che valuti la leadership americana in tecnologie critiche come l’intelligenza artificiale e l’informatica quantistica, nonostante la loro importanza per la nostra sicurezza nazionale e la prosperità economica. Il nostro disegno di legge contribuirà a colmare questa lacuna”, ha dichiarato l’altro promotore, il senatore Young.

“Negli ultimi anni, gli Stati Uniti hanno effettuato investimenti significativi in settori chiave come la produzione di semiconduttori. Ma mentre gli Stati Uniti lavorano per superare i nostri concorrenti globali, è fondamentale avere un modo significativo per monitorare i nostri progressi rispetto a quelli di concorrenti vicini come la Cina. Sono orgoglioso di unirmi a questo sforzo bipartisan per creare un hub centralizzato responsabile di tenere sotto controllo questi sviluppi, che sono fondamentali per la nostra economia e la sicurezza nazionale”, ha dichiarato il senatore Warner, anch’egli promotore di questa proposta di legge.

Proposta di Legge sulla governance automatizzata trasparente

Presentata il 7 giugno 2023, la legge vorrebbe imporre alle agenzie federali di essere trasparenti quando utilizzano sistemi automatizzati e aumentati per interagire con il pubblico o prendere decisioni critiche, e per altri scopi.

“L’intelligenza artificiale sta già trasformando il modo in cui le agenzie federali servono il pubblico, ma il governo deve essere più trasparente con il pubblico su quando e come utilizza queste tecnologie emergenti”, ha dichiarato il Senatore Peters, uno dei proponenti della Legge. “Questo disegno di legge bipartisan garantirà che i contribuenti sappiano quando interagiscono con determinati sistemi federali di intelligenza artificiale e stabilirà un processo per ottenere risposte sul perché questi sistemi stiano prendendo determinate decisioni”.

Proposta di Legge sulla divulgazione dell’IA

Presentata il 5 giugno 2023, la legge richiede che tutto il materiale generato dalla tecnologia dell’intelligenza artificiale includa la seguente dicitura: “DISCLAIMER: questo output è stato generato dall’intelligenza artificiale”. Si applicherebbe a video, foto, testi, audio e/o qualsiasi altro materiale generato dall’intelligenza artificiale. La Federal Trade Commission (FTC) sarebbe responsabile dell’applicazione delle violazioni, che potrebbero comportare sanzioni civili.

Questo il commento di presentazione della proposta da parte dei proponenti: “L’intelligenza artificiale è la tecnologia più rivoluzionaria del nostro tempo. Ha il potenziale per essere un’arma di disinformazione, dislocazione e distruzione di massa”, ha dichiarato la deputata Torres. “La creazione di un quadro normativo per la gestione dei rischi esistenziali dell’intelligenza artificiale sarà una delle sfide principali che il Congresso dovrà affrontare negli anni e nei decenni a venire. C’è il pericolo sia di una regolamentazione insufficiente che di una regolamentazione eccessiva. Il punto di partenza più semplice è la divulgazione. Tutte le IA generative dovrebbero essere obbligate a dichiarare di essere IA. La divulgazione non è assolutamente una soluzione magica, ma è un punto di partenza di buon senso per quella che sarà sicuramente una lunga strada verso la regolamentazione federale”.

IA e diritti fondamentali: cosa succede in Europa?

L’obiettivo di posizionare l’Unione europea come leader mondiale nella difesa e nella garanzia dei diritti fondamentali e degli interessi pubblici di fronte all’emergere delle nuove tecnologie di intelligenza artificiale stava per raggiungere il suo culmine già nell’aprile 2021 con l’approvazione della cosiddetta Proposta di regolamento sull’intelligenza artificiale[8].

Ad oggi la prima legge europea sull’intelligenza artificiale entra in dirittura d’arrivo per essere approvata dalle autorità dell’UE, probabilmente entro la fine dell’anno. In data 14 giugno il Parlamento europeo[9] ha dato il via libera a questa legislazione con 499 voti a favore, 28 contrari e 93 astensioni. Ora dovrà passare al vaglio del Consiglio europeo per affrontare le diverse considerazioni degli Stati membri. Il documento approvato dalla Camera è una versione più severa della proposta iniziale delineata dalla Commissione Europea nel 2021 e include sistemi di IA generativi come ChatGPT sotto sorveglianza, riconoscendo esplicitamente la possibilità che il modello fondante sia incorporato in un sistema ad alto rischio

La proposta ha stabilito tre categorie distinte di sistemi di IA, caratterizzandole in base al loro livello di rischio: inaccettabile, elevato e basso o minimo. Quest’ultima classificazione non contiene regole vincolanti, ma crea un quadro per codici di condotta volontari.

La prima categoria vieta l’IA il cui uso è considerato inaccettabile perché contrario ai valori dell’UE, ad esempio perché viola i diritti fondamentali. Uno scenario potrebbe essere quello in cui l’IA viene utilizzata per manipolare le persone attraverso tecniche subliminali che trascendono la loro coscienza.

La seconda categoria di sistemi ad alto rischio comporta un problema intrinseco all’IA: come regolamentare una tecnologia il cui malfunzionamento può portare alla violazione dei nostri diritti fondamentali, data peraltro la sua natura autonoma? E, prima ancora, in quali situazioni può verificarsi una tale violazione, visto che non abbiamo quasi nessun precedente su cui basarci? La risposta si trova nel sesto articolo della proposta.

Collegato al secondo paragrafo di questo articolo, l’allegato III della proposta elenca una serie di casi in cui l’uso del sistema di IA sarebbe considerato ad alto rischio: gestione e funzionamento di infrastrutture essenziali; istruzione e formazione professionale; occupazione, gestione dei lavoratori, ecc.

Oltre a questi casi, per affrontare il dilemma, la proposta si avvale del quadro normativo già sviluppato di controllo del mercato da parte delle autorità. In particolare, si avvale di concetti già noti come il marchio CE (valutazioni di conformità o controllo ex-ante) e la sorveglianza del mercato e la conformità dei prodotti (controllo ex-post).

Pertanto, qualsiasi sistema di intelligenza artificiale che sia un prodotto (o che faccia parte di un prodotto come componente di sicurezza), che deve essere sottoposto a una valutazione di conformità per la marcatura CE, sarà considerato ad “alto rischio”.

Tuttavia, l’emergere di ChatGPT ha dimostrato che il progetto legislativo è ancora agli inizi, costringendo il Comitato per il mercato interno e la protezione dei consumatori (IMCO) a produrre una bozza (pubblicata il 5 maggio) con gli emendamenti alla proposta approvata dal Parlamento europeo mercoledì 14 giugno, che saranno integrati nella posizione finale.

L’IA generativa e l’introduzione del foundation model

La realtà è che i sistemi di IA di recente penetrazione sul mercato hanno avuto difficoltà a rientrare nella proposta. Stiamo parlando di programmi come ChatGPT, Midjourney o DALL-E, che generano testi o immagini in base ai comandi dell’utente, da cui il nome “Intelligenza Artificiale Generativa”.

È chiaro che queste IA non rientrano nella categoria dei sistemi a rischio inaccettabile e difficilmente troveranno posto nella classificazione “ad alto rischio”, anche se non sembra ragionevole lasciarle prive di regolamentazione.

Ad esempio, se ChatGPT fosse utilizzato per “determinare l’accesso o l’assegnazione di persone fisiche agli istituti di istruzione e formazione professionale” (paragrafo 3.a dell’Allegato III della Proposta), dovrebbe di conseguenza essere considerato un sistema ad “alto rischio”. In tal caso, l’operatore dovrebbe sottoporre il sistema a specifici controlli di pre-conformità e assicurarsi che sia conforme alla normativa applicabile, una volta che sia già in funzione.

Per evitare che ChatGPT sia relegato a una regolamentazione così limitata e condizionata al suo utilizzo in determinati prodotti, l’emendamento di maggio include nella proposta una nuova sottocategoria: il foundation model, ossia modelli addestrati su un ampio insieme di dati non etichettati che possono essere utilizzati per compiti diversi, con una messa a punto minima.

L’emendamento riconosce espressamente la possibilità che il foundation model sia incorporato in un sistema ad alto rischio. In secondo luogo, stabilisce una serie di obblighi per i fornitori di foundation model, soprattutto obblighi di trasparenza, come la divulgazione del fatto che il contenuto è stato generato dall’IA, la progettazione del modello per evitare di generare contenuti illegali o la pubblicazione di sintesi dei dati protetti da copyright utilizzati per l’addestramento.

Conclusioni

Insomma, l’arrivo dell’intelligenza artificiale generativa – tra gli altri, il ChatGPT – è l’ennesimo evento imprevisto a cui il legislatore europeo, con maggiore o minore successo, deve adattarsi con emendamenti come quello sopra citato che ci riporta al pensiero di Jonny Thompson, docente di filosofia di Oxford, che indica come mancante una quarta legge essenziale di Isaac Asimov: un robot deve identificarsi[10]. Abbiamo tutti il diritto di sapere se stiamo interagendo con un essere umano o con un’intelligenza artificiale.

Le leggi essenziali che regolano l’intelligenza dei robot, definite nel 1942 da Asimov e rivolte inizialmente a un pubblico di lettori di fantascienza, trovano implicazioni etiche sulla nostra società, le ricordiamo di seguito:

  1. Un robot non può recare danno agli esseri umani, né può permettere che, a causa del suo mancato intervento, gli esseri umani ricevano danno
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne nel caso che tali ordini contrastino con la Prima Legge.
  3. Un robot deve salvaguardare la propria esistenza, purché ciò non contrasti con la Prima e la Seconda Legge.

Asimov ha poi aggiunto nel 1985 (“I Robot e L’impero”, ed. Mondadori, 1986) una cosiddetta Legge Zero che viene anteposta in ordine di importanza alle altre per permetterne una maggior efficienza:

  • Un robot non può recare danno all’Umanità, né può permettere che, a causa del suo mancato intervento, l’Umanità riceva un danno.

Note


[1] Per la definizione di intelligenza artificiale generativa vedasi https://focus.namirial.it/intelligenza-artificiale-generativa/

[2] Vedasi https://fortune.com/2023/05/25/microsoft-president-says-the-u-s-must-create-an-a-i-regulatory-agency-with-rules-for-companies-using-advanced-a-i-models-similar-to-anti-fraud-safeguards-at-banks/

[3] Vedasi https://www.nytimes.com/2023/05/16/technology/openai-altman-artificial-intelligence-regulation.html

[4] In https://www.nist.gov/system/files/documents/2022/08/18/AI_RMF_2nd_draft.pdf

[5] https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf

[6] Testo integrale in https://www.law.cornell.edu/uscode/text/47/230

[7] Vedasi commento in https://www.propublica.org/article/nsu-section-230

[8] Vedasi https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX:52021PC0206

[9] Vedasi nota stampa UE https://www.europarl.europa.eu/news/it/agenda/briefing/2023-06-12/1/intelligenza-artificiale-al-voto-le-nuove-regole-ue

[10] https://makerfairerome.eu/it/le-tre-leggi-della-robotica-nellera-dellai/

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2