Si intensifica a livello globale l’interesse degli Stati e delle organizzazioni internazionali sulle implicazioni giuridiche dell’intelligenza artificiale che, pertanto, assume così una crescente centralità nell’odierna agenda politica, ove comincia a emergere l’esigenza di uniformare l’edificando quadro normativo, con il verosimile intento di evitare che il ricorso a differenti approcci di regolamentazione predisposti in materia nell’ambito di eterogenee azioni realizzate senza un preventivo raccordo operativo di sinergica cooperazione multilaterale, possa rivelarsi inadeguato sotto il profilo applicativo.
Risoluzione ONU A/78/L.49 e diritti umani
Per tale ragione, lo scorso marzo 2024, l’Assemblea Generale delle Nazioni Unite ha annunciato l’adozione della Risoluzione A/78/L.49 (sostenuta da oltre 120 Stati), per garantire lo sviluppo sicuro, equo, inclusivo e affidabile dei sistemi di intelligenza artificiale in grado di cogliere le opportunità offerte dalla trasformazione digitale, purché ciò avvenga nel rispetto dei diritti umani da salvaguardare durante l’intero ciclo di progettazione che caratterizza la codificazione algoritmica delle relative applicazione, in diretta attuazione dei 17 obiettivi di sviluppo sostenibile enunciati dall’Agenda 2030.
Visione multistakeholder e governance regolatoria
Avallando una visione “multistakeholder” aperta al corale coinvolgimento degli ordinamenti statuali, del settore privato, della società civile e degli enti di ricerca, dopo aver riscontrato l’esistenza di un preoccupante livello di divario digitale nel processo di innovazione tecnologica che si sta perfezionando con notevole rapidità, ancorché sulla base di differenziati livelli di implementazione tra i diversi Paesi, il testo del citato documento formalizza l’esigenza di definire una governance regolatoria dell’IA conforme agli standard internazionali, in grado di prevenire rischi a pregiudizio delle persone.
I riferimenti normativi internazionali
Entrando nel merito della Risoluzione, in sede di preambolo iniziale, l’Assemblea Generale richiama la Carta delle Nazioni Unite e la Dichiarazione Universale dei Diritti dell’Uomo come generali riferimenti fondamentali del panorama normativo internazionale applicabili anche alla materia dell’intelligenza artificiale, per poi sottolineare il rilevante impatto tecnologico ivi determinato sulla concreta attuazione dei menzionati obiettivi definiti dall’Agenda 2030.
Iniziative ONU e coordinamento globale
La Risoluzione contiene una ricognizione generale delle principali iniziative che l’ONU ha dedicato negli ultimi anni al tema dell’intelligenza artificiale, sollecitando la necessità di un concreto intervento organico e generale del settore, ispirato da una preventiva concertazione cooperativa di indispensabile coordinamento globale, per scongiurare l’eventualità di una frammentazione regolatoria ostativa alla predisposizione di un’adeguata ed efficace governance dell’IA.
Un ecosistema normativo proattivo
Entro tale cornice operativa, la Risoluzione ONU si impegna a colmare il ritardo digitale provocato dallo sviluppo dell’intelligenza artificiale, incoraggiando tutti gli attori (pubblici e privati) coinvolti nel processo decisionale a realizzare un ecosistema normativo proattivo, in grado di migliorare le infrastrutture digitali e l’accesso alle nuove tecnologie emergenti a beneficio di tutta la collettività, mediante l’elaborazione di misure efficaci per consentire la costante classificazione, valutazione e identificazione delle possibili criticità applicative dell’IA, con l’intento di contrastare qualsivoglia forma di discriminazione o distorsione algoritmica.
Di certo, le indicazioni espresse nel documento adottato dall’Assemblea Generale ONU confermano, ancora una volta, l’attenzione che, sul piano regolatorio, si sta focalizzando sull’intelligenza artificiale, al punto da determinare la crescente proliferazione di proposte normative che si diffondono con sempre più frequenza nella concreta prassi a livello globale.
Il rapporto “The AI Index”
Emblematiche, in tal senso, le rilevazioni contenute nella settima edizione del rapporto “The AI Index”, da cui si evince la complessa portata giuridica dei sistemi di intelligenza artificiale come prioritaria questione politica che in diversi ordinamenti si sta affrontando mediante svariati tentativi di regolamentazione, oggetto di specifica indagine di analisi nell’ambito del capitolo 7 “Policy and Governance” del citato studio.
In particolare, secondo il richiamato Report, la produzione regolatoria in materia di IA è, infatti, oltremodo cresciuta notevolmente negli ultimi anni.
Gli interventi regolatori negli Stati Uniti
Mentre l’Unione Europea ha da poco concluso l’iter legislativo finale per l’approvazione definitiva del cd. “EU IA Act”, negli Stati Uniti d’America gli interventi regolatori settoriali di riferimento hanno raggiunto la soglia esponenziale del 56,3%, a fronte di ben 25 proposte elaborate soltanto nel 2023 rispetto all’esistenza di una sola normativa predisposta nel 2016.
La medesima tendenza di ipertrofia normativa trova, altresì, riscontro a livello federale USA, ove risultano presentati, soltanto nel 2023, 181 progetti di legge, registrandosi anche in tal caso un rapido raddoppiamento delle proposte formulate in materia, ferme a quota 88 nel 2022.
Contestualmente è aumentato, altresì, il ricorso alle normative di dettaglio emanate dalle competenti agenzie governative, che hanno sempre più spesso esercitato le proprie funzioni regolatorie per contenere i rischi sottesi allo sviluppo dell’intelligenza artificiale (al riguardo, risultano monitorati dallo studio 21 interventi nel 2023, tenuto conto di analoghi 17 atti emanati nel 2022).
Le principali proposte normative Usa
Tra le principali proposte normative riportate dallo studio, si segnala, ad esempio, la legge sull’intelligenza artificiale per la sicurezza nazionale (H.R.1718 – “AI for National Security Act”) che, riformando la sezione 1521 della disciplina a presidio della difesa nazionale, mira a prevenire gli attacchi informatici, consentendo al Dipartimento della Difesa USA di utilizzare, come strumenti di sicurezza, anche i dispositivi di connessione basati sull’intelligenza artificiale, al fine di assicurare, con tempestività, la rilevazione e la mitigazione di tutte le possibili minacce alle infrastrutture critiche nazionali, potenziandone le difese di protezione contro i diversi fattori di vulnerabilità digitale.
La legge sulla formazione della leadership sull’IA
La legge sulla formazione della leadership sull’intelligenza artificiale (S.1564 – “AI Leadership Training Act”) pone a carico dell’Office of Personnel Management (OPM) il compito di sviluppare (implementandone l’aggiornamento ogni 2 anni) un programma generale di formazione annuale sull’intelligenza artificiale rivolto a manager federali, nonché ad altre specifiche categorie di dipendenti designati a parteciparvi, nell’ottica di migliorare le competenze tecnologiche della popolazione.
Commissione nazionale sull’intelligenza artificiale
La legge H.R.4223 – “National AI Commission Act” prevede l’istituzione di una Commissione nazionale indipendente sull’intelligenza artificiale con il compito di elaborare proposte di revisione del quadro normativo vigente in materia, al fine di innovare la regolamentazione del settore, con l’intento di rafforzare la leadership degli Stati Uniti mediante un approccio regolatorio in grado di mitigare i rischi e potenziare i benefici dell’innovazione tecnologica.
Promozione della forza lavoro basata sull’IA
Il disegno di legge “H.R.4498 – Jobs of the Future Act of 2023” si prefigge l’obiettivo di promuovere una “forza lavoro basata sull’intelligenza artificiale del XXI secolo”, al fine di consentire alle persone di sviluppare competenze qualificate in grado di cogliere le opportunità professionali offerte dal mercato tecnologico, individuando i settori maggiormente colpiti dall’intelligenza artificiale, nell’ambito di una generale revisione dei sistemi educativi, scolastici e formativi esistenti.
Valutazione dei rischi
La proposta normativa “S.2399 – Artificial Intelligence and Biosecurity Risk Assessment Act”, modificando la sezione 2811 del Public Health Service Act, prescrive l’obbligo generale di effettuare valutazioni periodiche per identificare le possibili minacce alla salute pubblica e alla sicurezza nazionale provocate dai sistemi di intelligenza artificiale, con particolare riferimento ai “potenziali rischi catastrofici biologici globali” in grado di cagionare “perdite di vite umane e danni prolungati ai governi nazionali, alle relazioni internazionali, alle economie, alla stabilità sociale o alla sicurezza globale”.
Sostegno alla ricerca
Il disegno di legge “S.2714 – CREATE AI Act of 2023” istituisce la “National Artificial Intelligence Research Resource” (NAIRR), per sostenere la ricerca all’avanguardia sull’IA mediante l’accesso a risorse computazionali e a ingenti dataset in grado di implementare la progettazione innovativa di soluzioni e applicazioni nel settore tecnologico.
Peraltro, alla luce dei dati raccolti dal rapporto “The AI Index”, l’incremento di iniziative regolatorie dedicate all’intelligenza artificiale non è limitato al solo contesto statunitense, trovando ulteriore generale riscontro globale, atteso che, nell’ultimo anno, stando alle rilevazioni del citato studio, si è passati da 1247 procedimenti legislativi avviati in materia a ben 2175 promossi nel 2023 da parte di 49 Paesi.
A partire dalla prima storica strategia nazionale del Canada in tema di intelligenza artificiale risalente a marzo 2017, risultano attualmente vigenti 75 similari iniziative adottate in tutto il mondo negli ultimi anni.
La situazione in Italia
In Italia, dopo l’avvenuta adozione del Programma Strategico per l’Intelligenza Artificiale (IA) 2022-2024, di recente, nella seduta n. 78 del 23 aprile, il Consiglio dei Ministri ha comunicato l’approvazione di un disegno di legge per l’introduzione di disposizioni e la delega al Governo in materia di intelligenza artificiale.
La “ratio” del menzionato intervento” va individuata nell’esigenza di predisporre concreti “criteri regolatori capaci di riequilibrare il rapporto tra le opportunità che offrono le nuove tecnologie e i rischi legati al loro uso improprio, al loro sottoutilizzo o al loro impiego dannoso”. In altri termini, quindi, nel disegno di legge è possibile cogliere un riferimento alla prospettiva regolatoria formalizzata dalla Risoluzione ONU A/78/L.49, laddove viene auspicata l’emanazione di un’adeguata normazione da parte degli Stati in grado di facilitare la fruizione delle opportunità offerte dall’innovazione digitale, cercando di mitigare i rischi da essa provocati.
Norme di principio e disposizioni di settore
A tal fine, sul piano della tecnica legislativa adoperata, si ricorre alla concomitante introduzione di “norme di principio e disposizioni di settore che, da un lato, promuovano l’utilizzo delle nuove tecnologie per il miglioramento delle condizioni di vita dei cittadini e della coesione sociale e, dall’altro, forniscano soluzioni per la gestione del rischio fondate su una visione antropocentrica”.
Le norme di principio assurgono al rango di coordinate interpretative utilizzabili al fine di orientare l’uniforme applicazione di qualsivoglia intervento legislativo volto a regolare il settore dell’intelligenza artificiale.
Le disposizioni di settore si riferiscono a peculiari ambiti di utilizzo dei sistemi di IA ove entrano in gioco preminenti interessi meritevoli di tutela rafforzata, che giustificano l’adozione di stringenti cautele a presidio di specifiche situazioni vulnerabili, suscettibili di pregiudicare i diritti fondamentali delle persone.
Nel dettaglio, il disegno di legge mira a regolare i profili della materia riservati al diritto interno, in un’ottica di integrazione applicativa multilivello per la predisposizione della normativa settoriale di riferimento, senza, dunque, così sovrapporsi alla legge europea sull’intelligenza artificiale definitivamente approvata a conclusione del relativo iter procedurale negli scorsi mesi dall’UE.
Ambiti di intervento
In particolare, il disegno di legge individua cinque specifici ambiti di intervento riguardanti la strategia nazionale, le autorità nazionali, le azioni di promozione, la tutela del diritto di autore, le sanzioni penali, prevedendosi, altresì, un’apposita delega conferita al Governo per realizzare ulteriori interventi di adeguamento euro-unitario volti a promuovere l’alfabetizzazione dei cittadini in materia di IA e la formazione professionale specialistica.
Approccio sistemico
Sul piano teorico, pertanto, il previsto intervento governativo sembra optare per un approccio sistemico di visione organica, non soltanto limitato ad attuare una revisione legislativa intesa come mutamento formale del quadro normativo vigente in materia, ma piuttosto, ben oltre l’aspetto meramente regolatorio, idoneo a formalizzare l’indispensabile esigenza di migliorare la cultura digitale della popolazione, da cui dipende sostanzialmente e in larga misura l’uso consapevole, inclusivo, sicuro e affidabile delle tecnologie.
I principi fondamentali
Alla luce di quanto testualmente stabilito dal disegno di legge, i modelli di intelligenza artificiale devono garantire il rispetto dei principi di trasparenza, proporzionalità, sicurezza, valorizzazione anche economica del dato, protezione dei dati personali, riservatezza, robustezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità, assicurando, altresì, l’autonomia e il potere decisionale dell’uomo, nonché la prevenzione del danno secondo adeguati standard di correttezza, trasparenza, qualità, conoscibilità e spiegabilità.
Inoltre, i sistemi di IA non devono pregiudicare la vita democratica del Paese e delle istituzioni, i principi di libertà e pluralismo alla libertà di espressione e del diritto all’obiettività, completezza, imparzialità e lealtà dell’informazione, nonché la tutela dei dati personali e della riservatezza.
I sistemi di IA contribuiscono a migliorare la produttività e la competitività del settore economico, rafforzando la “sovranità tecnologica della Nazione”, da cui discende la scelta preferenziale di ricorrere all’utilizzo di soluzioni ed applicazioni che garantiscono la localizzazione dei dati processati presso centri di elaborazione situati all’interno del territorio nazionale. Al riguardo, si ritiene di indubbio rilievo strategico la scelta di valorizzare, in un’ottica di progressiva indipendenza digitale, le implicazioni (economiche e politiche) sottese alla gestione “stato-centrica” delle risorse immateriali su cui si fondano, ben oltre le prospettive della “data economy”, le politiche di cyber-intelligence, con il verosimile intento di rafforzare le misure difensive a presidio delle infrastrutture critiche per la stabilità della sicurezza interna e la salvaguardia degli interessi vitali del Paese contro il rischio di possibili “minacce ibride”.
Il divieto di utilizzo discriminatorio
Nell’ambito delle disposizioni settoriali elaborate dal disegno di legge, si sancisce un generale divieto di utilizzo dei sistemi di intelligenza artificiale basati sulla codificazione di criteri discriminatori, prevedendosi la generale diffusione di tecnologie emergenti finalizzate, in chiave proattiva, a promuovere l’inclusione e l’accessibilità delle persone con disabilità.
L’impatto dell’AI sul mondo del lavoro
In relazione allo specifico impatto dell’intelligenza artificiale sul mondo del lavoro, viene prevista l’istituzione presso il Ministero del Lavoro e delle Politiche Sociali di un Osservatorio sull’adozione dei sistemi di IA, con il compito di definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito lavorativo, monitorare l’impatto sul mercato del lavoro e identificare i settori lavorativi maggiormente interessati dallo sviluppo delle nuove tecnologie emergenti.
Uso dell’IA nella PA e nella giustizia
Prendendo, altresì, atto delle implicazioni operative dell’IA configurabili nel settore pubblico, se ne ammette la relativa regolamentazione, allo scopo di incrementare l’efficienza dell’attività amministrativa, di ridurre i tempi di definizione dei procedimenti e di aumentare la qualità e la quantità dei servizi erogati ai cittadini e alle imprese, “dando centralità al principio dell’autodeterminazione e della responsabilità umana”.
Anche nell’amministrazione della giustizia l’utilizzo dell’IA è consentito esclusivamente, sempre in un’ottica di inderogabile supervisione “umano-centrica”, per finalità strumentali e di supporto del lavoro giudiziario, al fine di facilitare la semplificazione organizzativa delle relative attività svolte, nonché per la ricerca giurisprudenziale e dottrinale, riservando, in ogni, caso al magistrato la decisione sull’interpretazione della legge, la valutazione dei fatti e delle prove ai fini della decisione finale adottata.
Le Autorità nazionali competenti
Inoltre, il citato disegno di legge prevede l’elaborazione della Strategia nazionale per l’intelligenza artificiale, individuando come competenti Autorità nazionali l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN), preposte a garantire l’applicazione e l’attuazione della normativa nazionale e dell’Unione europea in materia di IA.
Merita di essere segnalato il riferimento alle misure da adottare, con apposito regolamento dell’AGCOM, a tutela degli utenti e in materia di diritto d’autore, nell’ottica di favorire l’identificazione e il riconoscimento di contenuti testuali, fotografici, audiovisivi e radiofonici, completamente o parzialmente generati, modificati o alterati dai sistemi di intelligenza artificiale, mediante l’utilizzo di un elemento o segno identificativo, anche in filigrana o marcatura incorporata con l’acronimo “IA” o, nel caso audio, attraverso annunci audio, ovvero con tecnologie adatte a consentire il riconoscimento.
Le sanzioni
In materia penale, ferma restando la delega conferita al Governo per introdurre una o più autonome fattispecie di reato, dirette a tutelare specifici beni giuridici esposti a rischio di compromissione per effetto dell’utilizzazione di sistemi di intelligenza artificiale, unitamente alla possibilità di realizzare una revisione della normativa sostanziale e processuale vigente, con il disegno di legge sono stabiliti specifici aumenti di pena per reati commessi mediante l’impiego fraudolento di sistemi di intelligenza artificiale, anche nel caso in cui, tra l’altro, si cerchi di alterare i risultati delle competizioni elettorali.
Prevenzione e deterrenza
In chiave preventiva, dissuasiva e deterrente, viene così in rilievo una risposta sanzionatoria azionabile nei casi particolarmente gravi di utilizzo illecito dei sistemi di intelligenza artificiale, come efficace contrasto alle forme più insidiose di cyber-criminalità che si stanno diffondendo con sempre maggiore frequenza nella concreta prassi, anche in relazione al rischio, tutt’altro che teorico, di minare la fiducia generale della collettività e dell’opinione pubblica a causa della dolosa propagazione di contenuti tossici, veicolati tramite modelli di IA generativa, in grado di destabilizzare la tenuta dei sistemi democratici vigenti.
Per le medesime ragioni, si punisce, infine, l’illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale, atti a indurre in inganno sulla loro genuinità, con la pena da uno a cinque anni di reclusione se dal fatto deriva un danno ingiusto.
Le opinioni espresse nel presente articolo hanno carattere personale e non sono, direttamente o indirettamente collegate, in alcun modo, alle attività e funzioni lavorative svolte dall’Autore, senza, quindi, impegnare,