Il recente accordo “politico”, raggiunto all’esito di un estenuante ma proficuo negoziato istituzionale tra Consiglio e Parlamento europeo, sul testo finale provvisoriamente definitivo del cosiddetto “EU AI Act”, a breve distanza dalla sua prima versione adottata, in sede di co-decisione legislativa, dagli eurodeputati, conclude, almeno sotto il profilo formale del quadro giuridico ufficialmente edificato, il lungo e complesso percorso procedurale, risalente alla formulazione della proposta della Commissione europea che, nel 2021, ha posto le basi iniziali per introdurre tale nuova organica disciplina nell’esercizio del suo potere di iniziativa normativa.
Indice degli argomenti
AI Act: la storica riforma per una sovranità digitale europea
Si tratta di una storica riforma, senza dubbio, destinata astrattamente a realizzare la generale visione di sovranità digitale di cui l’Unione europea intende dotarsi a livello globale, per tentare di affermare, appunto su scala planetaria, la propria leadership tecnologica, nel ruolo primario di superpotenza alternativa riconosciuta rispetto agli attuali equilibri bipolari su cui si basa lo speculare duopolio geopolitico (USA-Cina) riscontrabile nell’odierno ecosistema digitale.
L’approccio umano-centrico alla base dell’AI Act
Facendo leva, infatti, sull’auspicata solidità applicativa delle nuove norme armonizzate ivi introdotte, la legge europea sull’intelligenza artificiale risulta ispirata dall’intento di incoraggiare e incentivare il progresso evolutivo dell’innovazione tecnologica, senza però, al contempo, rischiare di compromettere la salvaguardia dei diritti fondamentali conformi alla preminente tutela dei valori essenziali perseguiti dall’Unione europea che, a tal fine, positivizza la necessità di assicurare un inderogabile approccio “umano-centrico” volto a orientare, in chiave di costante supervisione operativa, il rapido perfezionamento algoritmico dei sistemi di intelligenza artificiale.
Le criticità delle tempistiche applicative dell’AI Act
Alla luce della regolamentazione così delineata sul piano teorico, la nuova normativa entrerà effettivamente a pieno regime applicativo molto probabilmente nel 2026: quindi, in altre parole, non prima dei prossimi 2 anni circa dall’attuale quadro giuridico predisposto dal legislatore europeo sarà possibile cominciare a valutare l’impatto attuativo delle relative disposizioni alla luce della specifica indagine empirica sulla casistica che emergerà nella concreta prassi.
Un simile orizzonte temporale potrebbe rappresentare una criticità oltremodo problematica in grado di vanificare, almeno in parte, le novità previste dal cd. “EU AI Act”, nella misura in cui il termine di differimento stabilito per la decorrenza posticipata della nuova disciplina (ossia, 24 mesi dalla formale entrata in vigore del regolamento, ex art. 85 della proposta di legge), sembra forse troppo prolungato, senza, dunque, considerare le plausibili incerte variabili di un differente momento storico, quando è ipotizzabile ritenere, comunque, notevolmente mutato lo scenario tecnologico attualmente esistente in virtù della rapida evoluzione esponenziale delle applicazioni di intelligenza artificiale rispetto al livello di sviluppo tecnico oggi raggiunto, da cui si evince un significativo margine di notevole potenzialità progettuale, destinata a sfociare in nuove abilità algoritmiche sempre più performanti nell’imminente futuro.
L’allineamento alla definizione OCSE dei sistemi di IA
Probabilmente anche in ragione di una così tale ravvisata fluttuante metamorfosi dell’intelligenza artificiale, nell’ottica di uniformare, a livello globale, un indispensabile allineamento dei principi settoriali vigenti, la categorizzazione standardizzata dei sistemi di IA enucleata dal legislatore europeo, secondo quanto ribadisce l’ultima nota recentemente pubblicata dal Consiglio dell’UE, richiama, come necessario adattamento applicativo di sinergica cooperazione, la definizione concettuale elastica ivi adottata dall’OCSE, all’uopo intervenuta aggiornando, a sua volta, le proprie politiche di riferimento risalenti al 2019, che avevano già modellato la precedente stesura del testo legislativo di cui al “EU AI Act” secondo la prima versione emendata dal Parlamento europeo.
Con l’intento di assicurare, infatti, il più ampio consenso possibile su una condivisa classificazione organica dei sistemi di IA che funga da indispensabile cornice basica di riferimento per consentire agli Stati di legiferare adeguatamente in materia, a seguito dell’ultima recente revisione giustificata dall’avvento pervasivo dell’intelligenza artificiale generativa, l’OCSE ha, dunque, elaborato una nuova definizione, peraltro oggetto di periodico aggiornamento concettuale.
La definizione OCSE di sistema di intelligenza artificiale
In particolare, sulla scorta di quanto specificamente delineato dall’OCSE, viene identificato, in senso ampio e generale, come “sistema di intelligenza artificiale” qualsiasi modello di implementazione basato su “una macchina” in grado di “dedurre dall’input che riceve”, grazie all’implementazione di sofisticate capacità adattive dotate di diversi livelli di autonomia, una serie di dati processabili finalizzati a generare svariati “output” (come, ad esempio, “previsioni, raccomandazioni, contenuti, decisioni”, ecc.), suscettibili di influenzare “ambienti fisici o virtuali”, tenuto conto di un “insieme di obiettivi espliciti o impliciti” concretamente perseguiti, a seconda che siano programmati direttamente da uno sviluppatore umano, oppure definiti mediante il ricorso a tecniche di auto-apprendimento algoritmico.
I principi fondamentali dell’OCSE per un’IA affidabile
La menzionata definizione va letta in combinato disposto con i principi flessibili proclamati sempre dall’OCSE sull’IA, da cui discende, nell’ambito della configurazione di un ecosistema digitale favorevole allo sviluppo di un’IA affidabile, che richiede, appunto, il rafforzamento di uno sforzo sinergico realizzato in sede di cooperazione internazionale, l’enunciazione di un catalogo generale di raccomandazioni ivi formalizzate per garantire la crescita inclusiva e sostenibile dei sistemi di intelligenza artificiale, nel rispetto dei valori fondamentali centrati sull’uomo e sull’equità, secondo concreti standard di trasparenza e conoscibilità in grado di assicurare robustezza, sicurezza e protezione dei diritti in condizioni effettive di responsabilità.
Più specificamente, entrando nel dettaglio degli orientamenti enunciati dall’OCSE:
- il principio 1.1 (“Crescita inclusiva, sviluppo sostenibile e benessere”), focalizza le potenzialità positive dei sistemi affidabili di IA, al fine di consentire di realizzare gli obiettivi generali di sviluppo globale sostenibile da cui dipende la crescita complessiva della società come priorità di intervento preordinata al perseguimento del bene comune, superando le diseguaglianze tecnologiche esistenti soprattutto a discapito delle persone maggiormente vulnerabili.
- Il principio 1.2 (“Valori centrati sulla persona ed equità”) afferma che la progettazione dei sistemi di IA, durante l’integrale ciclo di vita predisposto in sede di perfezionamento delle relative applicazioni, deve sempre avvenire nel rispetto dei diritti umani e dei valori democratici mediante il riconoscimento di adeguate garanzie per realizzare una società giusta ed equa.
- Il principio 1.3 (“Trasparenza e spiegabilità”) stabilisce il diritto degli utenti di conoscere pienamente le modalità di funzionamento dei sistemi di IA nell’ambito di una divulgazione responsabile in grado di fornire informazioni complete, significative e coerenti con lo stato dell’arte esistente.
- Il principio 1.4 (“Robustezza, sicurezza e protezione”) dispone la necessità di assicurare, mediante una costante supervisione umana, periodici monitoraggi di controllo sul funzionamento sicuro e protetto dei sistemi di IA durante tutto il ciclo di progettazione, garantendo la tracciabilità dei risultati in relazione ai dataset disponibili al fine di prevenire il rischio di usi impropri illeciti e dannosi.
- Il principio 1.5 (“Responsabilità”) afferma l’esistenza di un generale regime di responsabilità a carico delle persone (fisiche e giuridiche) che “sviluppano, implementano o gestiscono sistemi di IA” nei casi di accertati pregiudizi cagionati in violazione dei principi richiamati.
Criticità della definizione elastica adottata dall’Ue
In tale prospettiva, alla luce della cornice così tracciata, la scelta (cui ha optato il legislatore europeo) di recepire la definizione di IA elaborata dall’OCSE, con il verosimile intento di avallare un approccio regolatorio omogeneo, funzionale a stabilizzare la condivisione di un univoco inquadramento sistematico riconosciuto a livello globale per la classificazione standardizzata dei sistemi di intelligenza artificiale, sembra, invero, formalizzare una qualificazione normativa troppo ampia ed elastica (sulla scia di analoghi orientamenti concettuali desumibili anche nel contesto statunitense: emblematica, in tal senso la recente Carta dei diritti dell’IA promossa dalla Casa Bianca).
Vantaggi e svantaggi di una definizione ampia dell’IA
Sebbene una diversa categorizzazione positivizzata di segno opposto (laddove si fosse preferito formalizzare, in sede di normazione euro-unitaria, una differente definizione iper-dettagliata, precisa e circostanziata dei sistemi di IA), avrebbe potuto, forse, ben presto rivelarsi tecnicamente obsoleta rispetto alla rapidità evolutiva del cangiante processo di innovazione tecnologica riscontrabile nella concreta prassi, con il rischio di rendere, di fatto, superata la legge europea sull’intelligenza artificiale persino paradossalmente prima ancora della sua formale entrata in vigore, in realtà, il paventato richiamo alla generica e oltremodo elastica definizione concettuale formulata dall’OCSE non è del tutto scevra da criticità applicative configurabili in via interpretativa nella corretta ricostruzione della relativa fattispecie normativa.
Le sfide interpretative del rinvio alla definizione OCSE
Ad esempio, sotto il profilo specifico della tecnica legislativa adoperata, si pone il problema di stabilire se il rinvio alla definizione OCSE debba intendersi come “fisso” (ove vada riferito esclusivamente all’attuale classificazione testuale ivi elaborata), oppure “mobile” (ritenendolo, in tal caso, automaticamente estensibile di volta in volta alle periodiche revisioni di costante aggiornamento concettuale effettuate dall’OCSE).
La strategia europea sull’IA: dubbi metodologici
Inoltre, nel merito della strategia predisposta dalle istituzioni euro-unitarie, se l’obiettivo perseguito con l’adozione del “EU AI Act” è quello di affermare, come principale impronta normativa della propria sovranità digitale, un efficace approccio europeo di incisiva regolamentazione sull’IA che funga da modello applicativo di riferimento, utilizzabile su scala mondiale a riprova della raggiunta leadership tecnologica conseguita dall’Unione europea, non si comprende appieno la ragione per cui, sul piano metodologico, sia stato opportuno conformarsi al mero recepimento di una definizione eterodeterminata sui sistemi di intelligenza artificiale, coniata cioè da organizzazioni esterne all’assetto ordinamentale UE (come appunto l’OCSE), piuttosto che assumere direttamente il compito di elaborare una propria cornice definitoria di inquadramento classificatorio nel quadro euro-unionale, anche mediante la formulazione di un alternativo indirizzo qualificatorio in grado di avvalorare la capacità di orientare, con preminente funzione politica di lungimirante vocazione visionaria, lo sviluppo evolutivo dell’innovazione digitale.
Valutazione futura dell’impatto dell’AI Act
Al netto delle questioni poste, e tenuto conto degli interrogati sollevati, soltanto nei prossimi anni sarà, in ogni caso, possibile concretamente valutare lo specifico impatto attuativo della legge europea sull’intelligenza artificiale, dopo la sua formale entrata in vigore e successiva integrale applicazione, al fine di verificare i relativi effetti prodotti da tale normativa e stabilire la portata reale di una riforma – comunque sulla carta “storica” – realizzata dall’Unione europea.
Le opinioni espresse nel presente articolo hanno carattere personale e non sono, direttamente o indirettamente collegate, in alcun modo, alle attività e funzioni lavorative svolte dall’Autore, senza, quindi, impegnare, in alcun modo, l’Amministrazione di appartenenza del medesimo.