Solo pochi hanno colto che l’Europa, dopo l’accordo politico al Consiglio Ue sull’AI Act, ha scelto una definizione di intelligenza artificiale diversa rispetto a quella (ampia e tecnica) del Parlamento ue.
Il testo del nuovo AI Act ancora non c’è, ma il Consiglio chiarisce il punto nella nota di presentazione dell’accordo.
La definizione di intelligenza artificiale per l’Europa e L’Ocse
Probabilmente in ragione di una prevista fluttuante metamorfosi dell’intelligenza artificiale e anche nell’ottica di uniformare, a livello globale, un indispensabile allineamento “atlantista” dei principi settoriali vigenti, l’Europa ha scelto di adottare la stessa definizione data dall’Ocse.
IA, la nuova definizione dell’OCSE
Con l’intento di assicurare, infatti, il più ampio possibile consenso su una condivisa classificazione organica dei sistemi di IA che funga da indispensabile cornice basica di riferimento per consentire agli Stati di legiferare adeguatamente in materia, a seguito dell’ultima recente revisione giustificata dall’avvento pervasivo dell’intelligenza artificiale generativa, l’OCSE ha elaborato una nuova definizione, peraltro oggetto di periodico aggiornamento concettuale.
In particolare, sulla scorta di quanto specificamente delineato dall’OCSE, viene identificato, in senso ampio e generale, come “sistema di intelligenza artificiale” qualsiasi modello di implementazione basato su “una macchina” in grado di “dedurre dall’input che riceve”, grazie all’implementazione di sofisticate capacità adattive dotate di diversi livelli di autonomia, una serie di dati processabili finalizzati a generare svariati “output” (come, ad esempio, “previsioni, raccomandazioni, contenuti, decisioni”, ecc.), suscettibili di influenzare “ambienti fisici o virtuali”, tenuto conto di un “insieme di obiettivi espliciti o impliciti” concretamente perseguiti, a seconda che siano programmati direttamente da uno sviluppatore umano, oppure definiti mediante il ricorso a tecniche di auto-apprendimento algoritmico.
La menzionata definizione va letta in combinato disposto con i principi flessibili proclamati sempre dall’OCSE sull’IA, da cui discende, nell’ambito della configurazione di un ecosistema digitale favorevole allo sviluppo di un’IA affidabile, che richiede, appunto, il rafforzamento di uno sforzo sinergico realizzato in sede di cooperazione internazionale, l’enunciazione di un catalogo generale di raccomandazioni ivi formalizzate per garantire la crescita inclusiva e sostenibile dei sistemi di intelligenza artificiale, nel rispetto dei valori fondamentali centrati sull’uomo e sull’equità, secondo concreti standard di trasparenza e conoscibilità in grado di assicurare robustezza, sicurezza e protezione dei diritti in condizioni effettive di responsabilità.
Gli orientamenti
Più specificamente, entrando nel dettaglio degli orientamenti enunciati dall’OCSE, il principio 1.1 (“Crescita inclusiva, sviluppo sostenibile e benessere”), focalizza le potenzialità positive dei sistemi affidabili di IA, al fine di consentire di realizzare gli obiettivi generali di sviluppo globale sostenibile da cui dipende la crescita complessiva della società come priorità di intervento preordinata al perseguimento del bene comune, superando le diseguaglianze tecnologiche esistenti soprattutto a discapito delle persone maggiormente vulnerabili.
Il principio 1.2 (“Valori centrati sulla persona ed equità”) afferma che la progettazione dei sistemi di IA, durante l’integrale ciclo di vita predisposto in sede di perfezionamento delle relative applicazioni, deve sempre avvenire nel rispetto dei diritti umani e dei valori democratici mediante il riconoscimento di adeguate garanzie per realizzare una società giusta ed equa.
Il principio 1.3 (“Trasparenza e spiegabilità”) stabilisce il diritto degli utenti di conoscere pienamente le modalità di funzionamento dei sistemi di IA nell’ambito di una divulgazione responsabile in grado di fornire informazioni complete, significative e coerenti con lo stato dell’arte esistente.
Il principio 1.4 (“Robustezza, sicurezza e protezione”) dispone la necessità di assicurare, mediante una costante supervisione umana, periodici monitoraggi di controllo sul funzionamento sicuro e protetto dei sistemi di IA durante tutto il ciclo di progettazione, garantendo la tracciabilità dei risultati in relazione ai dataset disponibili al fine di prevenire il rischio di usi impropri illeciti e dannosi.
Il principio 1.5 (“Responsabilità”) afferma l’esistenza di un generale regime di responsabilità a carico delle persone (fisiche e giuridiche) che “sviluppano, implementano o gestiscono sistemi di IA” nei casi di accertati pregiudizi cagionati in violazione dei principi richiamati.
In tale prospettiva, alla luce della cornice così tracciata, la scelta (cui ha optato il legislatore europeo) di recepire la definizione di IA elaborata dall’OCSE, con il verosimile intento di avallare un approccio regolatorio omogeneo, funzionale a stabilizzare la condivisione di un univoco inquadramento sistematico riconosciuto a livello globale per la classificazione standardizzata dei sistemi di intelligenza artificiale, sembra, invero, formalizzare una qualificazione normativa troppo ampia ed elastica (sulla scia di analoghi orientamenti concettuali desumibili anche nel contesto statunitense: emblematica, in tal senso la recente Carta dei diritti dell’IA promossa dalla Casa Bianca).
Facendo leva sull’auspicata solidità applicativa delle nuove norme armonizzate introdotte, la legge europea sull’intelligenza artificiale risulta ispirata dall’intento di incoraggiare e incentivare il progresso evolutivo dell’innovazione tecnologica, senza però, al contempo, rischiare di compromettere la salvaguardia dei diritti fondamentali conformi alla preminente tutela dei valori essenziali perseguiti dall’Unione europea che, a tal fine, positivizza la necessità di assicurare un inderogabile approccio “umano-centrico” volto a orientare, in chiave di costante supervisione operativa, il rapido perfezionamento algoritmico dei sistemi di intelligenza artificiale.
Lo scenario dell’applicazione normativa
Alla luce della regolamentazione così delineata sul piano teorico, la nuova normativa entrerà effettivamente a pieno regime applicativo molto probabilmente nel 2026: quindi, in altre parole, non prima dei prossimi 2 anni circa dall’attuale quadro giuridico predisposto dal legislatore europeo sarà possibile cominciare a valutare l’impatto attuativo delle relative disposizioni alla luce della specifica indagine empirica sulla casistica che emergerà nella concreta prassi.
Un simile orizzonte temporale potrebbe rappresentare una criticità oltremodo problematica in grado di vanificare, almeno in parte, le novità previste dal cd. “EU AI Act”, nella misura in cui il termine di differimento stabilito per la decorrenza posticipata della nuova disciplina (ossia, 24 mesi dalla formale entrata in vigore del regolamento, ex art. 85 della proposta di legge), sembra forse troppo prolungato, senza, dunque, considerare le plausibili incerte variabili di un differente momento storico, quando è ipotizzabile ritenere, comunque, notevolmente mutato lo scenario tecnologico attualmente esistente in virtù della rapida evoluzione esponenziale delle applicazioni di intelligenza artificiale rispetto al livello di sviluppo tecnico oggi raggiunto, da cui si evince un significativo margine di notevole potenzialità progettuale, destinata a sfociare in nuove abilità algoritmiche sempre più performanti nell’imminente futuro.
I punti critici applicativi
Sebbene una diversa categorizzazione positivizzata di segno opposto (laddove si fosse preferito formalizzare, in sede di normazione euro-unitaria, una differente definizione iper-dettagliata, precisa e circostanziata dei sistemi di IA), avrebbe potuto, forse, ben presto rivelarsi tecnicamente obsoleta rispetto alla rapidità evolutiva del cangiante processo di innovazione tecnologica riscontrabile nella concreta prassi, con il rischio di rendere, di fatto, superata la legge europea sull’intelligenza artificiale persino paradossalmente prima ancora della sua formale entrata in vigore, in realtà, il paventato richiamo alla generica e oltremodo elastica definizione concettuale formulata dall’OCSE non è del tutto scevra da criticità applicative configurabili in via interpretativa nella corretta ricostruzione della relativa fattispecie normativa.
Ad esempio, sotto il profilo specifico della tecnica legislativa adoperata, si pone il problema di stabilire se il rinvio alla definizione OCSE debba intendersi come “fisso” (ove vada riferito esclusivamente all’attuale classificazione testuale ivi elaborata), oppure “mobile” (ritenendolo, in tal caso, automaticamente estensibile di volta in volta alle periodiche revisioni di costante aggiornamento concettuale effettuate dall’OCSE).
Inoltre, nel merito della strategia predisposta dalle istituzioni euro-unitarie, se l’obiettivo perseguito con l’adozione del “EU AI Act” è quello di affermare, come principale impronta normativa della propria sovranità digitale, un efficace approccio europeo di incisiva regolamentazione sull’IA che funga da modello applicativo di riferimento, utilizzabile su scala mondiale a riprova della raggiunta leadership tecnologica conseguita dall’Unione europea, non si comprende perché si sia scelto di conformarsi al mero recepimento di una definizione eterodeterminata sui sistemi di intelligenza artificiale.
Coniata cioè da organizzazioni esterne all’assetto ordinamentale UE (come appunto l’OCSE). Sarebbe stato meglio assumere direttamente il compito di elaborare una propria cornice definitoria di inquadramento classificatorio nel quadro euro-unionale, anche mediante la formulazione di un alternativo indirizzo qualificatorio in grado di avvalorare la capacità di orientare, con preminente funzione politica di lungimirante vocazione visionaria, lo sviluppo evolutivo dell’innovazione digitale.
Ricordiamo in ogni caso che è in ballo la generale visione di sovranità digitale di cui l’Unione europea intende dotarsi a livello globale, per tentare di affermare, appunto su scala planetaria, la propria leadership tecnologica, nel ruolo primario di superpotenza alternativa riconosciuta rispetto agli attuali equilibri bipolari su cui si basa lo speculare duopolio geopolitico (USA-Cina) riscontrabile nell’odierno ecosistema digitale.
In tale prospettiva, è interessante compiere, anche in via di indagine comparatistica, una ricognizione generale delle principali tecniche definitorie utilizzate dai decisori politici, ritenuti tecnologicamente più proattivi nello scenario mondiale, anche nell’ottica di verificare i possibili profili contenutistici elaborati (in termini di uniforme convergenza, alternatività integrativa o totale antinomia concettuale), come essenziali strumenti regolatori del relativo settore, per ricostruire l’inquadramento classificatorio dei sistemi di intelligenza artificiale.
L’approccio statunitense
Concentrando, ad esempio, l’attenzione sul contesto ordinamentale statunitense, una delle fonti utili da richiamare è, senza dubbio, la nota “Carta dei diritti dell’IA” (“Blueprint for an AI Bill of Rights”).
Nell’ambito del glossario terminologico allegato al citato documento, un “sistema automatizzato” viene definito come “qualsiasi sistema, software o processo che utilizza il calcolo […] per determinare risultati, prendere o aiutare decisioni, informare l’attuazione delle politiche, raccogliere dati o osservazioni o interagire in altro modo con individui e persone o comunità.
I sistemi automatizzati includono, ma non sono limitati a, sistemi derivati dall’apprendimento automatico, statistiche o altre tecniche di elaborazione dati o intelligenza artificiale ed escludono l’infrastruttura informatica passiva” (quest’ultima intesa alla stregua di una “qualsiasi tecnologia intermediaria che non influenza o determina l’esito di una decisione, non prende o aiuta nelle decisioni, informa l’implementazione delle politiche o raccoglie dati o osservazioni, inclusi web hosting, registrazione di domini, networking, caching, archiviazione di dati, o sicurezza informatica”).
Intelligenza artificiale, la definizione per l’Europa e l’Ocse
L’IA per l’Europa sulla scorta dell’Ocse è qualsiasi modello di implementazione basato su “una macchina” in grado di “dedurre dall’input che riceve”, grazie all’implementazione di sofisticate capacità adattive dotate di diversi livelli di autonomia, una serie di dati processabili finalizzati a generare svariati “output” (come, ad esempio, “previsioni, raccomandazioni, contenuti, decisioni”, ecc.), suscettibili di influenzare “ambienti fisici o virtuali”, tenuto conto di un “insieme di obiettivi espliciti o impliciti” concretamente perseguiti, a seconda che siano programmati direttamente da uno sviluppatore umano, oppure definiti mediante il ricorso a tecniche di auto-apprendimento algoritmico.
Il termine intelligenza artificiale
Occorre, inoltre, richiamare anche il recente ordine esecutivo 14110 “Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”, ove il termine “intelligenza artificiale” (o “AI”) viene adoperato, in combinato disposto con le disposizioni di cui al Titolo 15 – “Commercio e Scambi”, Capitolo 119 – “Iniziativa nazionale sull’intelligenza artificiale” (15 USC 9401), per delineare, in senso ampio ed elastico, una figura aperta di categorizzazione generale dei sistemi di IA in grado di includere la progettazione futura delle indefinite e svariate applicazioni algoritmiche che potrebbero essere sviluppate nel corso del tempo, sulla scia flessibile dell’approccio regolatorio “soft”, in tal senso, tracciato dalla strategia nazionale “Guidance for Regulation of Artificial Intelligence Applications”, in attuazione dell’ordine esecutivo n. 13859/2019 (“Maintaining American Leadership in Artificial Intelligence”).
Entrando nel dettaglio qualificatorio, infatti, l’espressione “intelligenza artificiale” si riferisce allo sviluppo di “un sistema basato su macchina che può, per un dato insieme di obiettivi definiti dall’uomo, fare previsioni, raccomandazioni o decisioni che influenzano ambienti reali o virtuali. I sistemi di intelligenza artificiale utilizzano input basati su macchine e esseri umani per percepire ambienti reali e virtuali; astrarre tali percezioni in modelli attraverso l’analisi in modo automatizzato; e utilizzare l’inferenza del modello per formulare opzioni per informazioni o azioni”.
Il contesto cinese
Con specifico riferimento al panorama regolatorio cinese, invece, rispetto alle principali fonti consultabili in materia di intelligenza artificiale, non sembra enucleabile la formalizzazione di un generico approccio definitorio adottato dagli organi competenti per la descrizione concettuale dei sistemi di IA, preferendo piuttosto optare per una specifica identificazione settoriale degli svariati ambiti di intervento cui indirizzare l’attuazione di apposite azioni strategiche conformi alla visione fondamentale delineata nell’ambito della cornice centralizzata del quadro nazionale vigente, nell’ottica di garantire il raggiungimento di una serie di obiettivi da realizzare in un orizzonte temporale di breve/medio e lungo termine entro cui rafforzare la leadership tecnologica di Pechino.
In altre parole, lungi dall’enunciare “etichette” definitore precostituite – esposte, peraltro, al rischio di una possibile obsolescenza concettuale rispetto alla rapidità evolutiva dell’innovazione digitale – pare emergere l’intento pratico di focalizzare, invero, la prioritaria scelta di governare lo sviluppo delle potenzialità algoritmiche di cui risultano dotate le nuove tecnologie emergenti, prescrivendo i limiti inderogabili da osservare, come stringenti vincoli operativi ivi imposti (di natura giuridica ed etica), nella progettazione dei sistemi di intelligenza artificiale.
Una simile impostazione si evince, tra l’altro, dal cd. “New Generation of Artificial Intelligence Development Plan”, nonché dal documento recante la proclamazione dei principi di governance dedicati allo sviluppo responsabile dell’intelligenza artificiale, in combinato disposto con l’adozione delle misure provvisorie per la gestione dei servizi di intelligenza artificiale generativa, e tenuto, altresì, conto del Codice etico dell’intelligenza artificiale di nuova generazione.
Conclusione
Al netto delle questioni poste, e tenuto conto degli interrogativi sollevati, soltanto nei prossimi anni sarà, in ogni caso, possibile concretamente valutare lo specifico impatto attuativo della legge europea sull’intelligenza artificiale, dopo la sua formale entrata in vigore e successiva integrale applicazione, al fine di verificare i relativi effetti prodotti e stabilire la portata reale di una riforma – comunque sulla carta “storica” – realizzata dall’Unione europea, rispetto ai differenti approcci regolatori adottati da altri attori politici che è possibile individuare nello scenario geopolitico attualmente esistente.
Le opinioni espresse nel presente articolo hanno carattere personale e non sono, direttamente o indirettamente collegate, in alcun modo, alle attività e funzioni lavorative svolte dall’Autore, senza, quindi, impegnare, in alcun modo, l’Amministrazione di appartenenza del medesimo.