la proposta di legge

Regolare l’AI, così si fa in California: cultura, test e tutele



Indirizzo copiato

In California è caldissimo il dibattito sul disegno di legge SB 1047, attualmente in discussione al Senato: vediamo cosa propone e quali potrebbero essere i possibili impatti per l’UE, alla luce dell’AI Act

Pubblicato il 21 ago 2024

Franco Pizzetti

professore emerito in diritto costituzionale, Università di Torino, ex Garante Privacy



shutterstock_2366215275-1920×1080

In UE ci si fa vanto dell’entrata in vigore dell’AI Act e della centralità che in esso ha l’obbligo di rispettare una visione antropocentrica dell’intelligenza artificiale. Sembriamo dimenticare però che in USA, e specificamente in California, il dibattito e anche la regolazione della AI sono ben più avanti e si basano essenzialmente su una visione concreta (e mobile nel tempo) degli effetti che la IA può avere non tanto sui singoli individui ma sulle società come tali.

Al centro della discussione in atto in California, infatti, non vi è l’individuo ma la società intesa come la cultura che caratterizza un gruppo sociale e che rappresenta il frutto della civiltà che nei secoli si è sviluppata in quell’aggregato sociale.

Il timore fondamentale che è al centro del dibattito in California sembra essere, infatti, l’effetto che l’uso non controllato e non adeguatamente supervisionato della AI può avere sulla civiltà stessa del gruppo nel quale il sistema è utilizzato, attraverso la diffusione di risultati umanamene incontrollati e basati su dati raccolti e utilizzati per finalità sottratte a un adeguato controllo umano.

Regolamentazione AI in California, i punti principali

Questa impostazione della regolazione della AI in California è tutt’altro che nuova ma è oggi nuovamente al centro di un dibattito molto acceso che si sta svolgendo intorno al disegno di legge SB 1047, attualmente in discussione nel Senato della California col titolo Safe and secure innovation for frontier artificial intelligence models act.

I test

In base a questo disegno di legge, che è già stato modificato più volte in sede di discussione anche sotto la pressione delle reazioni delle OTT, attualmente si prevede che gli sviluppatori di grandi modelli di AI, individuati sulla base del costo necessario per la creazione dei sistemi (almeno 100 milioni di dollari) e per la loro capacità di calcolo, devono condurre adeguati test di sicurezza prima di mettere i sistemi stessi sul mercato.

I test hanno lo scopo di ridurre i rischi di “danno catastrofico” derivanti, potenzialmente o concretamente, dalla tecnologia adottata, quali sono, ad esempio, quelli che derivano da attacchi informatici che possono causare almeno 500 milioni di dollari di danni. Inoltre, e si potrebbe dire soprattutto, gli sviluppatori, prima di mettere sul mercato un sistema di AI, anche utilizzando modalità “open source”, devono garantire che gli esseri umani possano disattivare i sistemi di AI che inizino a comportarsi in modo pericoloso.

Le tutele per i dipendenti

Lo SB 1047 ora in discussione nel Senato della California prevede inoltre nuove norme di protezione per i dipendenti e, soprattutto, nuove garanzie e tutele per i dipendenti delle aziende che intendono segnalare al Dipartimento di Tecnologia, istituito nell’ambito della già esistente Agenzia per le Operazioni governative, pratiche pericolose o rischi ancora non regolamentati senza timore di dove sottostare a pratiche o regole discriminatorie o a ritorsioni da parte dell’Azienda.

Proprio su questo punto la democratica Rebecca Bauer-Kahan, che guida il Comitato per la privacy e la protezione dei consumatori del Senato della California ha dichiarato la necessità di proteggere gli informatori perché “se i californiani vogliono sentirsi a proprio agio con queste nuove tecnologie, i dipendenti devono essere in grado di denunciare le pratiche pericolose senza temere ritorsioni” e ha aggiunto, presentando una apposita dichiarazione scritta, che le protezioni che il governo fornisce non dovrebbero essere limitate ai rischi noti dell’IA avanzata, poiché questi sistemi possono essere in grado di causare danni che non possiamo ancora prevedere”.

L’intervento delle big tech

Come detto la discussione di questo disegno di legge è ancora in corso e anche in queste settimane non sono mancate modifiche anche rilevanti sotto la pressione delle OTT, e in particolare di Google e di Open AI che, come era prevedibile, hanno sottolineato che la approvazione di questo testo di legge avrebbe un effetto negativo e di freno sui gruppi che rilasciano modelli di AI come software open source perché costoro potrebbero temere di essere considerati responsabili di tutti i modi in cui altri potrebbero utilizzare i loro codici.

La minaccia avanzata è stata quella già sentita molte volte: “Questo testo, se approvato, rischia di scoraggiare l’innovazione della IA in California in un momento in cui dovremmo promuoverla”, ha detto il governatore della California, Gavin Newsom, che però ha evitato di prendere posizione sulla legge. Il governatore si è infatti limitato a dire che comunque occorre dare una risposta alla richiesta di regolamentazione della IA che viene dagli inventori stessi della IA in California come G. Hinton.

La governance

Come si è detto, in California il dibattito è tuttora in corso, ed anzi ha ripreso ulteriore vigore con gli emendamenti alla proposta originaria già approvati dopo il 15 agosto a seguito dei quali non verrebbe più creata una apposita Agenzia per la sicurezza della IA ma verrebbero ampliati i compiti di regolazione della attuale Agenzia per le operazioni governative, mentre la responsabilità delle Aziende riguarderebbe ora solo i casi in cui le tecnologie adottate o promosse causino danni reali o pericoli imminenti per la sicurezza pubblica.

Il dibattito è tuttora in corso e, come ha dichiarato Dan Hendrycks, fondatore del Center for AI Safety di San Francisco, gli emendamenti proposti sono il frutto di “mesi di dialogo costruttivo con l’industria, le start-up e le parti interessate del mondo accademico”.

Google invece ha dichiarato di ritenere ancora valide le sue precedenti preoccupazioni e che sta analizzando le modifiche proposte. Posizione analoga hanno assunto OpenAI e Meta. La discussione dunque è più aperta che mai e anche a noi conviene attendere di vedere il testo definitivo prima di esprimere una valutazione.

UE e California, le differenze nella regolamentazione dell’AI

Quello che è certo è che la posizione della California è bene lontana e distante da quella della UE che sembra aver limitato la sua attenzione soprattutto agli aspetti etici e umano centrici. Se, come altre volte è accaduto, la posizione della California fosse destinata in un prossimo futuro a essere fatta propria anche a livello della Federazione USA, la UE dovrebbe tornare rapidamente a riaprire il dossier, che sembrava potersi ritenere chiuso, della IA mentre i rischi e i pericoli della IA si andranno a collocarsi sul piano del rapporto tra IA e civiltà europea, ben oltre il piano della utilizzazione della IA da parte delle macchine come tali.

Di una cosa possiamo comunque essere sicuri: la discussione sulla IA, sui suoi effetti e sulle regole che devono disciplinarla è ben lungi dall’essere terminata. Anzi: sta appena iniziando.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4