regolamentazione

Stati Uniti, tutte le leggi sull’intelligenza artificiale: il quadro



Indirizzo copiato

Mentre l’Unione Europea ha adottato l’AI Act per regolamentare l’intelligenza artificiale, garantendo i diritti dei cittadini, negli Stati Uniti, la normativa è in evoluzione, con diverse proposte federali e statali. L’approccio americano è più flessibile, volto a promuovere lo sviluppo tecnologico senza vincoli stringenti, diversamente dall’approccio europeo

Pubblicato il 19 giu 2024

Anna Cataleta

Senior Partner di P4I e Senior Advisor presso l’Osservatorio Cybersecurity & Data Protection (MIP)

Andrea Grillo

Senior Legal Consultant – Partners4Innvovation



Convenzione del Consiglio d'Europa sull'intelligenza artificiale

Negli Stati Uniti l’intelligenza artificiale è un argomento che sta assumendo sempre più rilievo sul tavolo dei legislatori. Il paese, tra iniziative federali e proposte di legge a livello statale, si trova di fronte alla necessità di tracciare una roadmap chiara per la regolamentazione dell’AI.

Come accaduto in Europa, dove rischi e sfide che accompgnano il potenziale dell’IA, che hanno indotto l’Unione Europea a dotarsi di un Regolamento specifico (AI Act) volto a disciplinare il fenomeno, garantendo particolari tutele per i diritti e le libertà dei cittadini europei.

Quando si parla di innovazione tecnologica, tuttavia, i Paesi in cui questa si sviluppa con maggiore vigore e determinazione si trovano spesso oltre i confini europei, in particolare sull’altra sponda dell’Atlantico. È dunque cruciale volgere lo sguardo e le analisi verso gli Stati Uniti, dove nell’ultimo anno sono stati effettuati investimenti miliardari nello sviluppo e nella diffusione di sistemi e prodotti basati sull’AI.

Il panorama normativo statunitense sull’AI: complesso e in continua evoluzione

In tale contesto, comprendere il panorama normativo statunitense sull’AI diventa fondamentale. Mentre l’Unione Europea ha adottato un approccio regolamentare dettagliato e centrato sulla protezione dei diritti individuali, gli Stati Uniti stanno esplorando una varietà di approcci normativi, sia a livello federale che statale. Negli ultimi anni è stato prodotto un ampio novero di proposte normative consistenti di leggi federali esistenti, ordini esecutivi presidenziali e numerose proposte legislative attualmente in discussione.

Negli Stati Uniti, il panorama normativo relativo all’AI è ancora oggi complesso e in continua evoluzione, caratterizzato da un mix di iniziative federali e statali. Questo articolo si propone di fornire un quadro d’insieme sulla normativa AI negli Stati Uniti, esplorando le principali leggi, ordini esecutivi, e proposte legislative attualmente in discussione. L’obiettivo è offrire una panoramica chiara dell’approccio avuto dalle istituzioni americane rispetto alle norme esistenti e dei possibili orientamenti nella futura regolamentazione dell’AI, evidenziando sia le sfide che le opportunità che questo settore comporta.

L’approccio federale all’AI: il National AI Initiative Act

Negli Stati Uniti, ad oggi, non esiste una legislazione federale completa che regoli lo sviluppo dell’intelligenza artificiale o che ne vieti o limiti specificamente l’uso. Tuttavia, alcune leggi federali esistenti riguardano l’AI, sebbene con applicazioni limitate. Un esempio è il National AI Initiative Act del 2020 (aggiornato, da ultimo, nel 2023), che ha l’obiettivo di ampliare la ricerca e lo sviluppo nel campo dell’AI e ha istituito il National Artificial Intelligence Initiative Office, responsabile della supervisione e dell’implementazione della strategia nazionale statunitense sull’AI.

Sono stati varati poi diversi interventi normativi e linee guida che vogliono, in qualche modo, indirizzare i diversi stakeholders verso un utilizzo consapevole ed etico dell’AI, in linea con principi propri della tradizione giuridica statunitense.

L’Executive Order della Casa Bianca sull’AI

Tra i principali interventi a livello federale spicca sicuramente l’Ordine Esecutivo della Casa Bianca sull’AI del 30 ottobre 2023 (“Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”), che si rivolge a diversi settori e si basa sul principio cardine che sfruttare l’AI per il bene comune e realizzare i suoi molteplici benefici richiede necessariamente la mitigazione dei suoi rischi intrinsechi. Nell premesse dell’ordine esecutivo, il Presidente Joe Biden, ribadisce come la propria amministrazione ritenga della massima urgenza governare lo sviluppo e l’uso dell’AI in modo sicuro e responsabile, e sia quindi impegnata nella promozione di una strategia coordinata a livello federale per raggiungere tali scopi. Tale interesse è d’altro canto confermato dall’introduzione, già nel 2021, di un Blueprint for an AI Bill of Rights, nel quale venivano sanciti alcuni principi volti a guidare lo sviluppo e la distribuzione di sistemi automatizzati basati su tecnologie AI.

L’executive order è indirizzato principalmente ad agenzie federali ed agli sviluppatori (imprese), dimostrando un approccio business centrico, a differenza dell’europeo AI Act che pone l’essere umano e i diritti individuali quale focus principale del corpus normativo. L’ordine esecutivo prevede otto principi guida e richiede ai produttori dei sistemi AI di collaborare con le autorità governative al fine di implementare sistemi che offrano garanzie in termini di sicurezza, affidabilità e protezione dei dati utilizzati.

Ma la volontà di regolamentare il fenomeno AI, pur se improntata ad una visione liberale dello sviluppo tecnologico ed economico dello stesso, è dimostrato dai numerosi interventi sul tema registrati negli ultimi anni negli States.

Emblematica l’audizione al Senato, del settembre 2023, riguardante l’intelligenza artificiale (AI), nella quale sono state ipotizzate le potenziali strategie di regolamentazione della materia. Tra le possibili opzioni regolamentari, veniva ipotizzata l’introduzione di licenze obbligatorie e la creazione di una agenzia federale di regolamentazione dedicata all’AI. Il tema delle licenze, quale strumento di compliance e accountability, è comune all’executive order presidenziale di cui sopra e dimostra come si voglia lasciare ampi spazi alla c.d. soft law per non imbrigliare eccessivamente il fenomeno e lo sviluppo dello stesso.

Le proposte di legge federali sull’AI

Nel corso degli ultimi anni si sono susseguite diverse proposte di legge federali. Tra i principali disegni di legge (non ancora formalmente approvati) si segnalano:

  • Il SAFE Innovation AI Framework, un insieme di linee guida per sviluppatori di AI, aziende e policy-makers. Sebbene non si tratti di una legge, queste linee guida offrono degli interessanti spunti per lo sviluppo di una legislazione federale sull’AI che riesca a trovare un equilibrio tra l’incentivazione all’innovazione e la protezione dei diritti dei cittadini;
  • Il REAL Political Advertisements Act, che intende regolamentare l’uso dell’AI generativa nelle campagne politiche;
  • Lo Stop Spying Bosses Act, che mira a regolamentare la sorveglianza dei dipendenti da parte dei datori di lavoro attraverso tecniche di machine learning e AI;
  • Il NO FAKES Act, disegno di legge bipartisan che mira a stabilire dei limiti alla creazione tramite AI generativa e all’utilizzo di repliche digitali di volti, nomi e voci non autorizzate. Il fenomeno dei Deep Fake, d’altronde, è ormai diffusissimo e crea non poco imbarazzo agli inconsapevoli protagonisti;
  • L’AI Research Innovation and Accountability Act, che promuove maggiore trasparenza, responsabilità e sicurezza nell’AI, stabilendo alcuni test e assesment per i sistemi di AI ad alto rischio e imponendo alle aziende che utilizzino tali sistemi di produrre rapporti di trasparenza.

Legislazioni nazionali: maggiore proattività rispetto alle istituzioni federali

Mentre a livello federale, stanti anche i molti interessi in gioco, risulta difficile trovare una convergenza verso una disciplina unica ed olistica del fenomeno AI, i singoli Stati si sono già adoperati nel definire, all’interno di leggi statali, alcuni principi e regole per produttori ed utilizzatori di sistemi AI.

Complice infatti la forte autonomia di cui dispongono i singoli Stati e i minori vincoli, burocratici e politici, cui gli stessi devono sottostare, si è sviluppata nel corso degli ultimi anni una prolifica produzione normativa che ha portato ad un ampio novero di proposte (approvate o attualmente in discussione) da parte degli Stati membri degli U.S..

Si pensi che, nonostante il fenomeno si sia diffuso in modo esponenziale solo di recente, in più di un quarto di tutti gli Stati sono attualmente in discussione proposte di legge sull’AI e, in alcuni casi, già vi sono Stati che si sono già dotati di normative che, direttamente o indirettamente, coinvolgono lo sviluppo e l’utilizzo di sistemi AI.

Il Colorado AI Act: un esempio di legislazione statale

Si segnala in particolare come lo scorso 17 maggio, il Colorado abbia promulgato il Colorado AI Act. Questa legge impone obblighi agli sviluppatori e a coloro che implementano l’AI, concentrandosi in particolare sui sistemi di decisione automatizzata e i sistemi di AI ad alto rischio, ossia quei sistemi che determinano o hanno una significativa influenza nella determinazione di scelte che impattano su aspetti significativi dei cittadini quali l’educazione, il lavoro, aspetti finanziari, ecc.

La legge diventerà pienamente efficace nel 2026 e pone particolare attenzione sulla prevenzione dei bias e della discriminazione. Secondo il Colorado AI Act, infatti, sia gli sviluppatori che i distributori devono esercitare una “ragionevole diligenza” per proteggere i consumatori da qualsiasi rischio, noto o ragionevolmente prevedibile, di discriminazione algoritmica nei loro sistemi di AI ad alto rischio. Vengono inoltre imposti agli sviluppatori dei doveri di trasparenza nei confronti degli utilizzatori quali l’indicazione dei dati utilizzati per il training dei sistemi e le misure di mitigazione dei rischi adottate dallo sviluppatore.

Per quanto riguarda gli utilizzatori di sistemi AI ad alto rischio la normativa del Colorado impone un assessment (da ripetersi a cadenza annuale) del sistema che si è scelto di utilizzare e l’adozione di una risk management policy secondo standard ufficialmente riconosciuti (come la NIST).

La violazione del Colorado AI Act costituirà una pratica commerciale scorretta, che sarà perseguita dal Colorado Attorney General.

Altre iniziative statali sulla regolamentazione dell’AI

Ma, come anticipato, molti altri Stati si sono adoperati per disciplinare questo tema. Si pensi che, nel 2023, sono stati presentati più di 40 disegni di legge statali sull’AI e un numero esponenzialmente più alto nel primo semestre del 2024: Connecticut e Texas hanno sviluppato degli statuti che istituiscono gruppi di lavoro statali per valutare l’uso dei sistemi di AI da parte delle agenzie statali. Diversi stati hanno emanato ordini esecutivi riguardanti l’AI, ad esempio la California, dove l’Ordine Esecutivo sull’AI Generativa evidenzia i benefici dell’AI Generativa ma anche la necessità di sicurezza, dando mandato alle agenzie statali di esaminare quali sono i rischi per i cittadini della California derivanti dall’uso dell’AI, in particolare per la loro privacy e sicurezza.

Il confronto tra l’approccio europeo e quello statunitense all’AI

Dall’analisi dei testi adottati e delle proposte avanzate appare evidente come negli Stati Uniti si preferisca evitare una regolamentazione stringente che imbrigli lo sviluppo tecnologico e la diffusione dell’AI, optando invece per un approccio più flessibile che promuova lo sviluppo tecnologico attraverso l’autoregolamentazione del mercato (es. certificazioni volontarie, self-assessment) e strumenti di soft law.

La società americana si è d’altronde spesso distinta per la volontà di dare maggiore enfasi alla libertà di impresa, rispetto all’imposizione di vincoli stringenti derivanti dalle garanzie offerte ai cittadini in merito alla tutela dei diritti, in ogni caso riconosciuti dall’ordinamento (es. privacy, diritti dei consumatori, diritti d’autore). Emerge, infatti, come vi sia una prospettiva significativamente diversa rispetto a quella europea, con un orientamento politico e legislativo particolarmente accorto nel preservare il benessere delle imprese, evitando di creare ostacoli allo sviluppo delle stesse, anche attraverso l’utilizzo di una tecnologia così dirompente come l’intelligenza artificiale.

Situazione non dissimile rispetto a quanto accaduto, d’altronde, in ambito privacy con il GDPR con l’Europa che si è dotata di un regolamento strutturato e oneroso (in termini di risorse da destinare alla compliance e dei costi derivanti dall’implementazione del Regolamento) mentre gli Stati Uniti si sono mossi in modo più sparigliato e intervenendo, a livello federale, solo a fronte dei significativi limiti ai trasferimenti conseguenti alla dichiarazione, in sede di sentenza Shrems II della CGUE, degli Stati Uniti come porto non sicuro per i dati personali dei cittadini europei.

Previsioni future sulla regolamentazione dell’AI negli Stati Uniti

Quello che ci si può dunque attendere è la creazione, attraverso strumenti normativi “destrutturati”, di un sistema di controllo decentralizzato, delegato ad agenzie governative debitamente preposte a tale scopo o attraverso l’adozione dei singoli Stati di normative specifiche che disciplinino, in linea con la tradizione giuridica liberale, dei requisiti di gestione dei rischi a tale tecnologia.

Il risultato sarà, in ogni caso, un framework normativo volutamente “soft” che non impedisca o rallenti l’avviato processo di “corsa all’oro” già intrapreso dalle più importanti tech-companies made in USA.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3