Accanto ai vari benefici in termini di efficienza e produttività che sono attribuiti all’intelligenza artificiale e che ormai ben conosciamo, vogliamo parlare adesso dei potenziali rischi associati al suo uso.
Senza voler disseminare timori ingiustificati, è comunque facile trovare in rete un ampio repertorio di rischi, che include: la perdita di posti di lavoro, l’accrescimento della disuguaglianza socioeconomica, la squalificazione del lavoro umano, l’accentramento della ricchezza, i pregiudizi algoritmici, le decisioni discriminatorie e ingiuste, la mancanza di trasparenza delle procedure amministrative e l’autonomicità anarchica.
Alla fine, questi timori che circolano possono minare la fiducia del pubblico in questa tecnologia. Visti gli impatti multiformi dell’IA, dobbiamo considerare anche le implicazioni del suo lato oscuro.
Le principali fonti di rischi catastrofici dell’IA
Possiamo categorizzare le principali fonti di rischi catastrofici dell’IA in quattro gruppi chiave:
- uso dannoso, in cui individui o gruppi impiegano deliberatamente l’IA per causare danni;
- corsa all’IA, caratterizzata da ambienti competitivi che spingono gli attori a implementare sistemi di IA non sicuri o a cedere il controllo all’IA;
- rischi organizzativi, che sottolineano come i fattori umani e i sistemi complessi possano aumentare la probabilità di incidenti catastrofici;
- IA canaglia, che descrivono la sfida intrinseca nel controllo di agenti che possiedono un’intelligenza superiore a quella degli esseri umani.
D’altro canto, lo sviluppo dell’IA e nelle applicazioni commerciali in vari settori è alimentato da diversi fattori interrelati. In primo luogo, i progressi nell’hardware e l’architettura cloud consentono un’elaborazione efficiente di vasti set di dati, aprendo la strada ad algoritmi più sofisticati. In secondo luogo, la connettività globale e la digitalizzazione delle informazioni forniscono all’IA una solida base per l’apprendimento e il miglioramento (grandi set di dati). Inoltre, le collaborazioni tra mondo accademico, industria e istituti di ricerca promuovono l’innovazione e la condivisione delle conoscenze. In aggiunta, i maggiori investimenti da parte di aziende tecnologiche e finanziarie accelerano la ricerca e lo sviluppo nell’IA, guidando ulteriormente le applicazioni e gli investimenti commerciali. Infine, la crescente domanda di IA in tutti i settori (sanità, logistica, ecc.) crea un mercato in continua espansione.
Il crescente supporto all’IA da parte di governi e aziende
La consapevolezza pubblica del potenziale dell’IA e del suo impatto sociale alimenta ulteriormente la sua rapida crescita, con un crescente supporto da parte di governi e aziende. Sebbene l’IA fosse già una realtà nelle mani di alcuni specialisti, l’introduzione di ChatGPT alla fine del 2022 ha causato un enorme aumento del numero di utenti nel giro di pochi mesi. Ma, come sottolinea Franganillo (2024), “sebbene l’IA stia rapidamente raggiungendo tutti i tipi di pubblico, non si può dire che si stia democratizzando, poiché questi non devono solo essere in grado di utilizzarla, ma devono anche essere in grado di comprenderla. La società in generale trova ancora difficile capire cosa sia l’IA e di cosa sia realmente capace”.
Nel 2023 centinaia di esperti di intelligenza artificiale, imprenditori tecnologici e scienziati hanno firmato una lettera aperta chiedendo una pausa nello sviluppo e nei test di tecnologie di intelligenza artificiale più potenti del LLM GPT-4 di OpenAI: sperano di avere il tempo di studiare adeguatamente i rischi etici e di sicurezza. Hanno anche messo in guardia dai pericoli della “corsa fuori controllo” per sviluppare sistemi di intelligenza artificiale sempre più audaci.
La competizione per la leadership nel settore
Ma lo sviluppo dell’IA ha accelerato nel 2024, di pari passo con gli investimenti industriali in IA fatti dalle grandi aziende tecnologiche e dalle startup innovative. Questo aumento degli investimenti sta alimentando una forte competizione per la leadership nel settore. Il rapido sviluppo e l’innovazione dell’intelligenza artificiale superano di gran lunga la velocità con cui vengono adottati gli standard, ponendo una sfida nell’implementazione delle normative.
In conclusione, con la proliferazione delle applicazioni dell’intelligenza artificiale in vari settori pubblici e privati, essa è passata dall’essere un’innovazione tecnologica a un argomento che richiede una governance efficace. La natura di “scatola nera” del IA, in cui i processi decisionali interni sono opachi, pone anche notevoli difficoltà per una regolamentazione efficace.
II dilemma del policy-maker nell’era digitale
II dilemma del policy-maker nell’era digitale è che non solo faticano a comprendere come l’IA raggiunga conclusioni, ma anche a individuare la responsabilità per i risultati guidati dall’IA e a adattare le normative per tenere il passo con la rapida evoluzione dell’IA. In questo panorama complesso, la collaborazione con gli esperti è una pietra miliare. Riconoscere la natura di “scatola nera” dell’IA è essenziale affinché i decisori politici sviluppino un approccio normativo sfumato, garantendo che l’implementazione dell’IA sia efficace.
“L’obbligo di proteggere i cittadini da potenziali danni algoritmici versus la necessità di aumentare l’efficienza e migliorare la qualità dei servizi digitali con l’uso dell’IA” [Misuraca, DFS, 2021], porta a valutare 3 aspetti del rapporto fra IA e l’atto di governare:
- Governare l’IA: come per qualsiasi innovazione tecnologica, bisogna considerate le implicazioni tecnologiche, legali, normative e culturali e le regole da seguire.
- Governare con l’IA: gli esseri umani dovrebbero rimanere nella situazione di controllo di una tecnologia che rafforza le capacità umane e cambia i comportamenti della società.
- Governare attraverso l’IA: il vero potere – e i relativi pericoli dell’uso dell’IA risiede nella possibilità che le decisioni siano prese basandosi sulle “capacità sovrumane” dei sistemi.
L’UE è un punto di riferimento nel mondo per la governance dell’IA
Il 1° agosto 2024 è entrato in vigore il regolamento che stabilisce norme armonizzate sull’intelligenza artificiale (AI ACT). In quanto regolamento europeo, l’AI ACT si applicherà direttamente in tutti i 27 stati membri dell’UE e intende apportare un contributo significativo al raggiungimento della strategia digitale europea (Un’Europa adatta all’era digitale).
La struttura di governance europea dell’IA
È importante esaminare la struttura di governance europea dell’IA, per comprendere i ruoli degli organi amministrativi che avranno compiti di supervisione e altri ruoli, tra cui l’adozione delle oltre 80 misure di follow-up previste nei prossimi anni (ad esempio atti di esecuzione, atti delegati, linee guida) e le opportunità che la struttura di governance offrirà alle aziende.
Accolta con favore da molti, presenta anche delle sfide dovute alla sua lunghezza, agli obblighi sfumati legati a intricate categorie di rischio e alla dipendenza da standard tecnici ancora in fase di elaborazione. I critici sostengono che la sua densità e i costi di conformità potrebbero soffocare l’innovazione, in particolare tra le start-up, mentre i sostenitori sostengono che le regole che promuovono un’IA affidabile alimenteranno una maggiore innovazione. Indubbiamente, l’AI ACT avrà effetti di vasta portata sulle comunità impegnate nella ricerca applicata all’IA, in Europa e nel mondo. Sebbene non si applichi alla ricerca e allo sviluppo prima del posizionamento sul mercato, le condizioni di test nel mondo reale innescano la conformità. Per i ricercatori di IA che lavorano nelle scienze della vita, nell’occupazione o nell’istruzione, la familiarità con i requisiti dell’AI ACT diventa cruciale se l’obiettivo è entrare nel mercato dell’Unione Europea (UE). I sistemi ad alto rischio, come definiti dall’AI ACT, richiedono la conformità a rigorosi obblighi pre-commercializzazione, che vanno dalla gestione del rischio a varie misure di controllo e requisiti di trasparenza. I fornitori di modelli di fondazione (generativi) devono soddisfare obblighi separati.
AI Act ed equilibrio tra la regolamentazione del rischio e il rafforzamento della ricerca
Riconoscendo la necessità di trovare un equilibrio tra la regolamentazione del rischio e il rafforzamento della ricerca, l’AI ACT include misure per promuovere uno sviluppo dell’IA socialmente e ambientalmente vantaggioso. I meccanismi abilitanti includono finanziamenti per la ricerca, ma anche l’accesso prioritario a sandbox normativi per l’IA, che offrono “banchi di prova” favorevoli all’innovazione per la sperimentazione dell’IA, utilizzando la flessibilità integrata nelle normative. Inoltre, la normativa esenta i componenti gratuiti e open source, a meno che non facciano parte di un sistema di IA ad alto rischio immesso sul mercato dell’UE da un fornitore.
L’AI ACT riguarda anche i ricercatori che lavorano con sistemi di IA ad alto rischio all’interno di organizzazioni, tra cui ospedali e istituti finanziari, per scopi professionali all’interno dell’UE. I produttori di tali sistemi sono responsabili dell’uso di dati di input pertinenti e imparziali. Ad esempio, un gruppo di ricercatori medici, che implementa un’IA nel contesto della medicina personalizzata, deve garantire che i dati di formazione siano privi di pregiudizi razziali, sociali o religiosi. Gli obblighi di supervisione umana e di tenuta dei registri sono tra i requisiti che possono influenzare le pratiche operative dei ricercatori che utilizzano sistemi di IA ad alto rischio. L’AI ACT ha anche implicazioni per gli studiosi che studiano gli impatti ad ampio raggio dell’IA. I requisiti di trasparenza, come la marcatura dei contenuti generati dall’IA, faciliteranno la ricerca empirica e lo sviluppo di strumenti tecnici e politici per affrontare le sfide di governance, inclusi i deep-fake.
Detto questo, la legislatura europea non ha ancora norme che garantiscano ai ricercatori un accesso a livelli diversi a dati, parametri e modelli, in particolare per i modelli di base. Un tale regime di accesso potrebbe promuovere la responsabilità e consentire una ricerca approfondita sull’impatto sociale, come ha dimostrato una disposizione di accesso simile nell’EU Digital Services Act. Gli effetti extraterritoriali previsti dell’AI ACT ricordano quelli del Regolamento generale sulla protezione dei dati (GDPR) e dovrebbero rimodellare le pratiche di ricerca commerciale sull’IA a livello globale. È anche un campanello d’allarme per la comunità scientifica e tecnologica in senso più ampio, evidenziando l’importanza di integrare l’etica e la regolamentazione dell’IA nel curriculum di base degli aspiranti ricercatori di IA e di istruire i decisori sulle promesse e sui limiti dell’IA.
La governance collaborativa
Con molti paesi che cercano di governare l’IA, l’AI ACT è salutata come la prima legge completa al mondo che regola l’IA in tutte le applicazioni e i contesti. In quanto regolamento europeo, l’AI Act si applicherà direttamente in tutti i 27 stati membri. Al fine di garantire un’attuazione e un’applicazione armonizzate e coordinate dell’AI Act, il capitolo VII dell’AI Act prevede la creazione di un quadro di governance completo e multilivello.
Parlando di governance dell’IA, intendiamo “un sistema di regole, pratiche, processi e strumenti tecnologici impiegati per garantire che l’uso delle tecnologie di IA da parte di un’organizzazione sia in linea con le strategie, gli obiettivi e i valori dell’organizzazione; soddisfi i requisiti legali; e rispetti i principi di IA etica seguiti dall’organizzazione”. Oltre allo sviluppo di quadri legali ed etici (linee guida etiche, best practice o codici di condotta, ecc.), l’implementazione armonizzata ed efficace dell’AI ACT richiede meccanismi di governance ben definiti. Questi meccanismi dovrebbero principalmente facilitare la collaborazione tra istituzioni, società e altre parti interessate, consentendo loro di raggiungere obiettivi politici in un ambiente dinamico e in evoluzione senza interruzioni significative o danni alla società. D’altro canto, la governance dell’IA deve essere sensibile e considerare le motivazioni e gli incentivi di istituzioni, attori e parti interessate. Dovrebbe bilanciare i benefici e i rischi dell’IA, sfruttando la conoscenza e la capacità di valutare i progressi e implementare incentivi e sanzioni che supportino i risultati desiderabili.
L’AI ACT europea apre nuove strade con un capitolo dedicato alla governance collaborativa che sfrutta sia le istituzioni europee che quelle nazionali, incoraggiando attivamente un continuo scambio di conoscenze tra istituzioni o agenzie pubbliche e diversi stakeholder (cittadini, aziende, ONG, esperti, ecc.) nel processo decisionale. Questa idea di governance trascende la mera consultazione, promuovendo un processo decisionale collaborativo e consentendo diversi vantaggi: promuove il dialogo e integra diversi punti di vista, portando allo sviluppo di politiche più informate. Inoltre, la governance collaborativa promuove un ambiente più inclusivo e collaborativo che favorisce la condivisione delle conoscenze, aumentando in definitiva la fiducia e la legittimità.
Tuttavia, l’implementazione efficace della governance collaborativa presenta una serie di sfide. Garantire una rappresentanza equa è un obiettivo chiave, poiché gli stakeholder influenti possono altrimenti dominare il processo (ad esempio “catturare” il processo decisionale). Adottare questo approccio per l’IA non è solo rilevante, ma necessario per diversi motivi. In primo luogo, l’enorme complessità dell’IA richiede un approccio multi-stakeholder, che attinga alle competenze di diversi settori per elaborare normative efficaci e complete sull’IA. Quindi, la collaborazione garantisce una comprensione olistica. In secondo luogo, il ritmo rapido dello sviluppo dell’IA richiede un quadro normativo flessibile e adattabile. Una prospettiva collaborativa consente un coinvolgimento continuo delle parti interessate, promuove un dialogo continuo e garantisce che le normative possano essere modificate man mano che la tecnologia dell’IA si evolve.
Il percorso dell’UE verso una regolamentazione efficace dell’IA
Per capire come siamo arrivati il 13 giugno 2024 all’approvazione del AI ACT in UE, cioè della prima regolamentazione specifica e completa dell’IA, può essere utile un piccolo riassunto della storia recente. Il Consiglio e il Parlamento Europeo hanno raggiunto un accordo sul testo giuridico il 9 dicembre 2023, dopo mesi di negoziati. L’AI ACT dell’UE rappresenta un atto legislativo rivoluzionario, essendo il primo al mondo nel suo genere. Questo regolamento storico mira ad armonizzare le norme che disciplinano i sistemi di IA per garantirne la sicurezza e la conformità ai diritti fondamentali e ai valori dell’UE. Tuttavia, questo risultato segna il culmine di varie iniziative adottate gradualmente a livello europeo, in particolare guidate dalla Commissione europea. Esaminiamo brevemente le principali iniziative.
Lo “High-Level Expert Group on AI”
In precedenza, nel 2018, la UE aveva istituito lo “High-Level Expert Group on AI” (IA HLEG) per discutere gli aspetti etici, legali, economici e sociali. Ha raccolto il contributo degli esperti e radunato un’ampia alleanza di diverse parti interessate e ha redatto le Linee guida etiche per l’IA. È stato incaricato di consigliare la Commissione Europea sulla creazione di un’ampia e diversificata comunità di parti interessate in una “European AI Alliance“, supportando l’implementazione della successiva iniziativa europea sull’IA e redigendo linee guida per lo sviluppo e l’uso etico dell’IA sulla base dei diritti fondamentali dell’UE. Nel 2019, l’AI HLEG ha pubblicato una serie di linee guida etiche. Questo documento mirava a informare le future azioni normative e promuovere lo sviluppo di un’IA affidabile. Secondo queste linee guida, un’IA affidabile dovrebbe essere legale (rispettando tutte le leggi e i regolamenti applicabili), etica (aderendo ai principi e ai valori etici) e solida (sia tecnicamente che in considerazione del suo ambiente sociale). Nello stesso anno, la Commissione Europea ha pubblicato il documento: “Costruire fiducia e sicurezza nell’intelligenza artificiale incentrata sulle persone”, che menziona alcuni requisiti chiave per un’IA affidabile, tra cui garantire l’agenzia e la supervisione umane, la robustezza e la sicurezza tecnica, la privacy e la governance dei dati, la trasparenza e la responsabilità. A luglio 2020, l’AI HLEG ha presentato il suo Assessment List for Trustworthy AI (ALTAI).
Il Libro bianco sull’intelligenza artificiale e la strategia europea sui dati
Sebbene in ritardo rispetto a Stati Uniti e Cina, la UE ha ufficialmente riconosciuto l’importanza strategica dell’IA e dei dati, sia da una prospettiva economica che geostrategica, e ha pubblicato a febbraio 2020 il Libro bianco sull’intelligenza artificiale e la strategia europea sui dati. Da un lato, ha assunto che la promozione della digitalizzazione è un fattore cardinale per promuovere la competitività e aumentare il progresso europeo e il benessere sociale. La UE ha riconosciuto che qualsiasi proposta di governance deve garantire per l’Europa una posizione all’avanguardia nello sviluppo dell’IA, salvaguardando al contempo i diritti e i valori dei cittadini.
La strategia europea sui dati
Per questo motivo, questo documento è stato accompagnato dalla “Strategia europea sui dati”. Entrambi i documenti sono stati i primi pilastri della strategia digitale presentata nella strategia europea sui dati con l’intento di promuovere lo sviluppo di uno spazio dati comune in cui possano circolare in tutti i settori; in particolare, i cosiddetti “Spazi dati europei comuni in settori strategici e domini di interesse pubblico” (industriale, Green Deal europeo, mobilità, salute, finanza, energia, agricoltura e dati per la pubblica amministrazione). Oltre a contribuire all’integrazione europea, è fondamentale per lo sviluppo dell’IA nell’UE, poiché i dati sono, dopotutto, la materia prima che alimenta l’IA. Il 23 luglio 2020, la Commissione Europea ha presentato una proposta di atto giuridico del PE e del Consiglio che stabilisce i requisiti per l’IA.
La genesi dell’Ai Act
Nell’ aprile 2021, al fine di integrare il suddetto piano coordinato, la Commissione ha proposto il primo quadro giuridico in assoluto sull’IA. Questa proposta di regolamento sull’IA classifica gli utilizzi dell’IA in quattro livelli di rischio: inaccettabile, elevato, limitato e minimo. Il regolamento mira a garantire che gli europei possano fidarsi dell’IA che utilizzano, promuovendo al contempo un ecosistema di eccellenza nell’IA e migliorando la competitività globale dell’UE. Allo stesso tempo, la Commissione ha presentato la comunicazione sulla promozione di un approccio europeo all’IA, che delinea la strategia dell’UE per l’IA, sottolineando affidabilità, competitività e considerazioni etiche. Successivamente la Commissione ha avviato la consultazione pubblica sulla responsabilità civile, che cerca di adattare le norme sulla responsabilità all’era digitale e all’IA. Pertanto, mirava a fornire certezza giuridica e fiducia per gli investimenti e l’accettazione sociale delle tecnologie emergenti. La nuova direttiva, sulla responsabilità per danno da prodotti difettosi, ha tentato di garantire norme eque e prevedibili per le aziende e le vittime, il risarcimento dei danni causati da prodotti non sicuri (inclusi prodotti digitali e sistemi di IA) e parità di condizioni tra produttori UE ed extra UE.
A novembre 2021, la presidenza slovena del Consiglio dell’UE ha condiviso la prima bozza dell’AI ACT, con modifiche alle sezioni sul punteggio sociale, sui sistemi di riconoscimento biometrico e sulle applicazioni ad alto rischio. A dicembre 2022, il Consiglio ha adottato la sua posizione comune sull’AI ACT. L’obiettivo è garantire la sicurezza dei sistemi di IA nel mercato UE nel rispetto dei diritti fondamentali e dei valori dell’Unione. La proposta segue un approccio basato sul rischio e fornisce un quadro giuridico uniforme per l’IA per garantire la certezza giuridica. Promuove investimenti e innovazione nell’IA, migliora la governance e l’applicazione dei diritti fondamentali e della sicurezza e facilita lo sviluppo di un mercato unico per le applicazioni di IA. Questo regolamento è in linea con altre iniziative, tra cui il Coordinated Plan on Artificial Intelligence, per accelerare gli investimenti nell’IA in Europa.
A giugno 2023, il Parlamento ha adottato la sua posizione negoziale sull’AI ACT, mirando a promuovere l’adozione di un’IA incentrata sull’uomo e affidabile, proteggendo al contempo la salute, la sicurezza, i diritti fondamentali e la democrazia. Le norme garantiscono che l’IA sviluppata e utilizzata in Europa sia in linea con i diritti e i valori dell’UE, tra cui la supervisione umana, la sicurezza, la privacy, la trasparenza, la non discriminazione e il benessere sociale e ambientale. Le disposizioni chiave includono un divieto totale di IA per la sorveglianza biometrica (sono consentite alcune eccezioni in base a un impellente interesse pubblico: localizzare persone scomparse, proteggere gli individui da danni fisici o mitigare le minacce terroristiche, ecc.), riconoscimento delle emozioni e polizia predittiva, nonché requisiti per i sistemi di IA generativa, come ChatGPT, di divulgare i propri contenuti generati dall’IA. Inoltre, i sistemi di IA utilizzati per influenzare gli elettori alle elezioni sono considerati ad alto rischio. Ad agosto 2023, il Consiglio dell’UE ha pubblicato un documento in preparazione dei colloqui interistituzionali con il Parlamento Europeo e la Commissione Europea (il cosiddetto trilogo). A dicembre 2023, è stato raggiunto l’accordo politico.
A febbraio 2024, i rappresentanti degli Stati membri hanno votato all’unanimità per adottare l’AI ACT. Anche le commissioni del Parlamento hanno votato per adottarlo. La votazione parlamentare finale ha avuto luogo a marzo 2024, entrando in vigore il 1° agosto. L’AI ACT delinea all’articolo 113 un calendario di applicazione progressiva.
Gli organi di governance collaborativa nell’UE
AI ACT nel Capitolo VII definisce la Governance per l’AI. Si suddivide in due sezioni: nella prima si descrive l’organizzazione a livello comunitario, nella seconda a livello dei singoli stati membri.
L’AI Office
Nella Sezione 1 “Governance al livello dell’Unione”, art. 64, stabilisce che debba essere istituito a livello europeo un apposito ufficio, AI Office, per attuare e far rispettare il regolamento. In particolare, viene stabilito che debba svolgere i seguenti compiti derivanti dal regolamento: a) sviluppare strumenti, metodologie e parametri di riferimento per valutare le capacità dei modelli di IA generici; b) monitorare l’attuazione e l’applicazione delle norme sui modelli e sistemi di IA generici; c) monitorare l’emergere di rischi imprevisti derivanti dai modelli di IA generici; d) indagare su possibili violazioni delle norme sui modelli e sistemi di IA di uso generale; e) garantire che, quando un sistema di IA rientra nell’ambito di applicazione della pertinente legislazione dell’UE, la supervisione e l’applicazione di tale legislazione siano pienamente coordinate con la supervisione e l’applicazione del regolamento; f) sostenere l’attuazione delle norme sulle pratiche di IA vietate e sui sistemi di IA ad alto rischio in coordinamento con gli organismi competenti responsabili. Inoltre, al fine di contribuire all’attuazione efficace del regolamento, l’Ufficio sarà incaricato di: a) assistere la Commissione nella preparazione delle decisioni; b) agevolare l’applicazione uniforme del prossimo regolamento; c) coordinare l’istituzione di un sistema di governance efficace; d) fornire il segretariato per l’AI Board e i suoi sottogruppi e fornire supporto amministrativo al forum consultivo e al gruppo scientifico.
Il punto importante è che lo AI Office svolgerà i propri compiti attraverso un approccio collaborativo, interagendo con le parti interessate, i fornitori di modelli di IA, gli esperti pertinenti e le entità sociali. Contempla inoltre la cooperazione con altri organismi e dipartimenti pertinenti per promuovere i benefici sociali e industriali delle tecnologie di IA; in particolare, con il Centro europeo per la trasparenza algoritmica. In questa linea, si fa riferimento anche alla cooperazione interistituzionale (altri organi, uffici e agenzie dell’UE) e alla cooperazione internazionale.
L’AI Board
Inoltre, la governance del regolamento sull’IA, previsti nel Capitolo VII, istituisce, nell’art.65, l’AI Board, composto da un rappresentante per Stato membro, con il Garante europeo della protezione dei dati che partecipa come osservatore. I rappresentanti degli Stati sono designati per tre anni, rinnovabili una volta. Il Board seleziona il presidente (è presieduto da uno dei rappresentanti degli Stati membri) e istituisce due sottogruppi permanenti per la sorveglianza del mercato e può creare sottogruppi aggiuntivi se necessario. Opera per garantire obiettività e imparzialità. A differenza dell’AI Office, che è integrato nella struttura della Commissione europea, l’AI Board è un’istituzione separata in termini di organizzazione e personale. Oltretutto l’AI Board non ha poteri esecutivi: lo scopo dell’AI Board è coordinare la politica sull’IA tra la Commissione europea (tramite l’AI Office dell’UE) e gli Stati membri.
L’AI ACT istituisce, nell’art. 67, anche un Advisory Forum, che sarà un gruppo di esperti per questioni tecniche, che supporterà sia la Commissione europea sia l’AI Board. Sarà composto da parti interessate accuratamente selezionate, tra cui rappresentanti dell’industria, start-up, PMI, società civile e mondo accademico. La composizione sarà bilanciata in termini di interessi commerciali e non commerciali, con particolare attenzione alle PMI e ad altre entità commerciali.
L’AI ACT inoltre richiede, nell’art. 68, l’istituzione di un gruppo scientifico di esperti indipendenti, lo Scientific Panel of Independent Experts, che sarà composto da esperti selezionati dalla Commissione in base alle loro competenze scientifiche nel campo dell’IA.
Infine, AI ACT, nella Sezione 2 “Autorità nazionali competenti”, fa riferimento alla designazione di autorità nazionali competenti. In termini di governance, viene istituita una rete di autorità europee e statali basata su nuove organizzazioni specializzate (e su reti settoriali di autorità di regolamentazione). La collaborazione tra le autorità nazionali tra loro e con la Commissione europea è un elemento centrale. Garantire un’attuazione coerente delle normative sull’IA richiede un approccio di governance unico e centralizzato. Per raggiungere questo obiettivo, l’AI Office, l’AI Board e lo Advisory Forum dovrebbero fungere da facilitatori centrali. Ciò richiede di promuovere un impegno continuo con l’industria, gli esperti e le parti interessate attraverso canali di comunicazione efficaci. Inoltre, la collaborazione con le autorità nazionali responsabili della governance dell’IA è fondamentale per garantire la coerenza tra le diverse giurisdizioni all’interno dell’UE. Promuovendo un approccio collaborativo ma centralizzato, l’UE può impegnarsi per ottenere una governance dell’IA efficace e coerente.
Questi meccanismi di governance si basano sul coordinamento tra autorità pubbliche europee e statali e sulla collaborazione di attori pubblici e privati. Gli studiosi della governance dell’IA sottolineano come “essa deve riguardare il modo in cui gli esseri umani possono far progredire al meglio lo sviluppo dell’IA, e comprendere tre elementi principali: panorama tecnico (limiti e portata dell’IA), governance ideale (potenziali percorsi per facilitare la cooperazione delle parti interessate) e politica dell’IA (dinamiche politiche che influenzano le parti interessate)”. Il meccanismo di governance dell’UE risponde effettivamente a questa visione olistica basata su forti interconnessioni. Infatti, prevede esplicitamente la collaborazione tra informatici, esperti di etica, decisori politici e parti interessate del settore, e l’integrazione di considerazioni interdisciplinari durante tutto il processo di ricerca e implementazione. L’UE ha istituito meccanismi di governance per affrontare le sfide associate all’IA, prevenendo danni personali e sociali, e creare al contempo fiducia e accettazione sociale dell’IA.
I prossimi sviluppi
A causa delle vaste implicazioni dell’IA, saranno necessarie ulteriori normative relative alla governance dei dati, alla sicurezza informatica, all’armonizzazione delle norme nazionali sulla responsabilità per l’IA, alla proprietà intellettuale, alla competitività aziendale e all’istruzione. Gli stati membri dell’UE, con il supporto della Commissione, dovrebbero accelerare gli sforzi per riqualificare gli individui e riformare i sistemi educativi per rispondere alle crescenti esigenze occupazionali. Promuovendo competenze come creatività, comunicazione e pensiero critico, i cittadini saranno meglio equipaggiati per orientarsi in un panorama lavorativo in continua evoluzione. I finanziamenti dovrebbero essere indirizzati a università e laboratori di ricerca per coltivare talenti in materia di IA. Quindi, per garantire un panorama normativo coerente, si otterrà un allineamento orizzontale con la legislazione europea esistente.
Essendo la prima a regolamentare, l’UE può stabilire lo standard globale de facto, plasmando il modo in cui il mondo fa affari e sviluppa la tecnologia (“effetto Bruxelles”). Gli standard e la legislazione nazionale dell’UE possono avere un impatto extraterritoriale. Pertanto, l’AI ACT può stabilire uno standard globale per la regolamentazione dell’IA in altri stati, promuovendo un approccio europeo alla regolamentazione della tecnologia sulla scena mondiale. A causa della portata globale dell’IA che trascende i confini statali, la sua regolamentazione richiede soluzioni regionali e globali per una maggiore sicurezza legale e protezione dei diritti delle persone. Le linee guida e la cooperazione a livello internazionale sono essenziali per promuovere una convergenza globale di principi e pratiche etiche. Approvando l’AI ACT, l’UE adotta una visione che enfatizza il ruolo dei governi nel garantire valore alle parti interessate. Presuppone che le agenzie governative debbano utilizzare varie funzioni per creare un impatto positivo per tutti coloro che sono coinvolti nello sviluppo e nell’uso dell’IA.
Da ora in poi sarà essenziale una valutazione critica delle dinamiche in evoluzione e dei modelli di implementazione all’interno del quadro di governance collaborativa dell’IA. Questo esame continuo sarà cruciale per trovare un equilibrio tra la salvaguardia dei diritti dei cittadini europei e la promozione di un’industria dell’IA competitiva e innovativa in Europa.
Mentre la struttura di governance europea multilivello dell’IA mira a creare strutture chiare per la regolamentazione dei sistemi di IA rafforzando il coordinamento tra gli stati membri e la Commissione Europea e creando un punto di contatto centrale per le questioni relative alla legge sull’IA in ogni stato membro, non è ancora chiaro quanto questa struttura sarà efficiente ed efficace nella pratica. Non si può escludere che l’ampia composizione dei vari organi e comitati, in particolare l’Advisory Forum e lo Scientific Panel, creerà conflitti di interesse e responsabilità poco chiare che ne ostacolano l’efficacia. Tuttavia, l’adesione all’Advisory Forum in particolare offrirà alle aziende e ad altre parti interessate l’opportunità di contribuire con la propria esperienza e i propri interessi e di influenzare attivamente l’organizzazione della struttura di governance europea dell’IA e l’attuazione della legge sull’IA.
Bibliografia
Governance “of, with and by” AI by Gianluca Misuraca (AI Ethics: Global Perspectives) (https://youtu.be/w4Ix4Z17tU0)
The EU’s AI act: A framework for collaborative governance, Celso Cancela-Outeda, Universidade de Vigo, Spain, (https://www.sciencedirect.com/science/article/pii/S2542660524002324)
An EU landmark for AI governance, Urs Gasser (https://www.science.org/doi/full/10.1126/science.adj1627)
EU AI Act – Focus on Enforcement: the EU governance structure (https://cms-lawnow.com/en/ealerts/2024/07/eu-ai-act-focus-on-enforcement-the-eu-governance-structure)