Habemus Artificial Intelligence Act (AI)… beh quasi. La legislazione appena approvata dal Parlamento non è definitiva. Ma potrebbe avere implicazioni di vasta portata poiché le grandi dimensioni e il mercato unico dell’UE possono influenzare le decisioni aziendali per le aziende con sede altrove, un fenomeno noto come “effetto Bruxelles”.
AI Act, il via libera del Parlamento europeo
Mercoledì la plenaria del Parlamento europeo ha approvato a stragrande maggioranza la sua posizione sull’AI Act, segnando un punto di svolta per la normativa globale sull’intelligenza artificiale (IA).
L’AI Act è considerato la prima legge al mondo che vieterebbe alcuni usi dell’intelligenza artificiale (IA) e stabilirebbe salvaguardie contro i sistemi di IA considerati ad alto rischio nel blocco dei 27 membri. Il testo, elaborato sotto la guida dei correlatori Brando Benifei (S&D, Italia) e Dragoș Tudorache (Renew, Romania), è stato adottato senza modifiche, nonostante gli incessanti tentativi da parte di alcuni democristiani volti ad annacquare il divieto del riconoscimento facciale. Senza perdere (ulteriore) tempo, i triloghi interistituzionali sono stati avviati la sera stessa.
Nell’era dell’innovazione tecnologica, l’intelligenza artificiale sta rivoluzionando il nostro mondo a un ritmo inaudito. Le sue implicazioni si stanno facendo sentire in ogni aspetto della nostra vita – dalla nostra quotidianità, alla nostra economia, fino al cuore della nostra democrazia. Tuttavia, parallelamente al potenziale enorme di questa tecnologia, emergono anche rischi significativi che l’UE ha ritenuto necessario regolamentare.
IA, l’importanza della regolamentazione
Il nostro passato recente ci ha mostrato come i sistemi di IA non regolamentati possono causare danni sostanziali. I social media hanno sconvolto le nostre elezioni democratiche, messo a rischio la salute pubblica durante la pandemia e contribuito all’epidemia di problemi di salute mentale tra i giovani. Ora, con l’avvento di strumenti di IA generativa come ChatGPT e tecnologie come il Metaverso, la portata e la gravità dei danni algoritmici hanno raggiunto nuove vette. Queste minacce diventano ancora più urgenti in vista delle prossime elezioni, con il potenziale per un’interferenza senza precedenti nelle elezioni future rappresentando un grave rischio per la stabilità democratica.
Ci troviamo all’inizio di una nuova era di innovazione tecnologica, con strumenti di intelligenza artificiale generativa accessibili a tutti in grado di diffondere disinformazione a una velocità senza precedenti, violando i nostri dati e i diritti di proprietà intellettuale, perpetuando discriminazioni e pregiudizi nei confronti delle comunità vulnerabili e facilitando attività illegali come il furto d’identità. Questo rapido dispiegamento di sistemi di intelligenza artificiale generativa senza adeguate misure di salvaguardia, responsabilità e trasparenza rappresenta una minaccia significativa.
Le implicazioni dell’AI Act
Il Parlamento europeo ha pertanto ritenuto necessario introdurre un’etichettatura obbligatoria per i contenuti generati dall’IA e imporre la divulgazione dei dati coperti da copyright utilizzati per addestrare modelli di intelligenza artificiale generativa.
Nonostante lo scetticismo espresso recentemente da taluni, come il presidente francese Emmanuel Macron, l’importanza di tali misure non può essere sottovalutata. Come sempre – basti pensare al Digital Services Act (DSA) o al Data Act giusto per fare qualche esempio – il French exceptionalism non poteva esimersi dal far sentire la sua voce. Sempre nella giornata di mercoledì, durante il suo intervento a Viva Technology, il presidente francese ha manifestato la sua riluttanza a posizioni precoci e stringenti sui sistemi di IA generativa che impedirebbero alle aziende di crescere in Europa. In realtà, il vero ostacolo non sarebbe imputabile tanto agli obblighi di trasparenza introdotti nella futura legislazione europea su AI, quanto all’insufficienza di risorse finanziarie necessarie.
Il problema dell’IA non può essere affrontato solo a livello europeo
Ma è evidente che il problema dell’IA non può essere affrontato solo a livello europeo. È una questione globale, che richiede una risposta coordinata a livello internazionale. In questo contesto, il presidente Macron ha ragione nel sostenere l’importanza del dialogo e della cooperazione con organismi come il G7, l’OSCE e l’UNESCO. Solo attraverso un approccio multilaterale, con una visione globale, possiamo sperare di regolamentare efficacemente l’IA e prevenire il suo abuso. Questa consapevolezza è ormai sempre più consolidata. Dando priorità alla regolamentazione globale, trascendiamo una mentalità incentrata sull’UE ed estendiamo l’influenza di Bruxelles oltre i suoi confini.
Lo stesso CEO di OpenAI, Sam Altman, ha più volte parlato della necessità di una regolamentazione globale dell’IA durante i suoi recenti incontri con i vari capi di governo. Posizione che sembrerebbe collidere, tuttavia, coi tentativi posti in essere da OpenAI per annacquare gli elementi chiave dell’AI Act dell’UE in termini di oneri normativi per la società secondo quanto descritto dall’OpenAI White Paper on the European Union’s Artificial Intelligence Act riportato nella data di oggi, 20 giugno, dal Time.
I prossimi step
Anche se l’AI Act dovesse essere adottato sotto la presidenza spagnola entro la fine dell’anno, dovremmo aspettare il 2025/2026 prima che questo diventi esecutivo. Nel frattempo, la Commissione europea ha avviato varie iniziative di sensibilizzazione, con l’obiettivo di anticipare le regole sull’IA e promuovere l’allineamento internazionale a livello di G7. Le iniziative avviate dai commissari europei Breton e Vestager, rispettivamente l’AI Pact e il Code of Conduct, sono tentativi in questa direzione. L’AI Pact di Breton si concentra su regole non vincolanti solo per le aziende europee di IA, incoraggiando a rispettare in modo proattivo ante tempore le disposizioni stabilite dall’AI Act. Al contrario, la commissaria Vestager ha proposto un codice di condotta volontario in collaborazione con gli Stati Uniti, fornendo linee guida per i governi occidentali e cercando potenzialmente il sostegno di altri paesi come Canada, Regno Unito, Giappone e India. Alla stessa stregua della Commissione, anche il Parlamento vorrebbe mettere sul tavolo l’anticipazione del biennio di applicazione della normativa per i modelli di IA generativa.
Conclusioni
Anche se la regolamentazione è un passo cruciale, non può risolvere il problema da sola. Investimenti significativi nella formazione e nell’istruzione digitale per i cittadini, i legislatori, le aziende e i professionisti sono essenziali per garantire un futuro sicuro e sostenibile. L’IA può rimanere uno strumento utile solo se comprendiamo appieno come funziona e come utilizzarla in modo responsabile. È imperativo che l’IA rimanga un servitore utile e non diventi un padrone pericoloso. La sicurezza del nostro futuro digitale e della nostra democrazia dipende da questo equilibrio delicato.