L’Europa accumula ritardi sul regolamento per l’intelligenza artificiale. Ormai è un dato di fatto.
In particolare preoccupanti risultano gli orientamenti espressi dalla Commissione speciale AIDA del Parlamento europeo formulati nel tentativo di orientare il processo di riforma legislativa del settore IA mediante l’elaborazione di regole omogenee in grado di assicurare lo sviluppo sicuro e affidabile di tale tecnologia, anche alla luce delle osservazioni formalizzate nel Libro bianco sull’intelligenza artificiale.
Commissione AIDA su intelligenza artificiale
La Commissione speciale AIDA (Special Committee on Artificial Intelligence in a Digital. Age) – ha recentemente affermato, lanciando un chiaro monito nell’immediato futuro – che oggi sembra trovare conferma anche nelle recenti prese di posizione del Parlamento europeo – secondo cui l’Unione europea è “rimasta indietro nella corsa globale alla leadership tecnologica, con la conseguenza che gli standard vengano sviluppati altrove in futuro, spesso da attori non democratici, mentre l’UE deve agire come normatore globale nell’IA”. Ciò costituisce un problema prioritario da risolvere in ragione del fatto che “le tecnologie di intelligenza artificiale potrebbero porre questioni etiche e legali cruciali”, da cui discende la necessità di assicurare “l’uso responsabile dell’IA” alla luce delle “preoccupazioni per la ricerca militare e gli sviluppi tecnologici in sistemi d’arma autonomi letali”.
A tal fine, la Commissione speciale AIDA sollecita le istituzioni europee a recuperare il gap esistente per cercare di sviluppare tempestivamente, nel più breve tempo possibile, adeguati standard tecnologici, intervenendo in anticipo rispetto agli altri Paesi, senza perdere in via definitiva il controllo dell’evoluzione tecnologica qualora le nuove “regole del gioco” fossero definite altrove, nell’ambito di circuiti non democratici estranei alla possibilità di interferenza dell’Unione europea, destinata a soccombere rispetto al ruolo predominante di nuovi players sempre più rilevanti nello sviluppo applicativo delle tecnologie emergenti.
Un approccio olistico all’intelligenza artificiale
In tale prospettiva, la relazione finale della commissione AIDA, propone una tabella di marcia dell’UE verso l’IA, all’insegna di un “approccio olistico” in grado di formalizzare, mediante un’azione tempestiva non più rinviabile o dilatabile ancora oltremodo, una posizione progettuale a lungo termine coerente con i valori fondamentali dell’UE applicabili in via estensiva anche all’IA sperimentata e progettata in ogni possibile settore di competenza dell’UE (transizione verde, salute, industria, governance pubblica, agricoltura, produttività del lavoro, ecc.).
Le principali criticità regolatorie riscontrate
La relazione mette nero su bianco le principali criticità regolatorie riscontrate, affermando espressamente che “l’attuale legislazione europea e nazionale è frammentata, lenta e non fornisce la certezza del diritto, al punto da rendere urgente la “creazione di un contesto normativo favorevole che comprenda un processo legislativo dinamico e una governance moderna”. Peraltro, a maggior ragione le pericolose implicazioni connesse agli aspetti militari e di sicurezza dell’intelligenza artificiale impongono la necessità di affermare, anche in un clima collaborativo di cooperazione internazionale con altri partner accomunati dalla medesima posizione, una visione umanistica basata sui valori europei.
Un atteggiamento (fin troppo?) prudente
Sin dalle prime fasi attuative della procedura attivata, è emerso un atteggiamento prudente da parte delle istituzioni europee come tratto distintivo della strategia UE: nell’ottica di valutare con estrema attenzione l’impatto generale dell’IA sull’ecosistema dell’Unione europea sono state presentate ed esaminate svariate proposte orientate a recepire la standardizzazione etica e affidabile dell’Intelligenza Artificiale mediante la formulazione di norme “incentrate sulla persona” nel rispetto di adeguati canoni di trasparenza, sicurezza e responsabilità, funzionali ad evitare il rischio di pregiudizi discriminatori codificati nel funzionamento dei sistemi algoritmici predisposti a presidio dei diritti fondamentali. Seguendo tali coordinate, oltre a pubblicare una relazione sull’uso dell’IA nell’istruzione, nella cultura e nel settore audiovisivo, il Parlamento europeo ha elaborato specifiche linee guida per l’uso dell’intelligenza artificiale in campo militare e civile, prendendo atto delle implicazioni che tale tecnologia emergente può assumere in settori “sensibili” e delicati per la protezione della sfera individuale delle persone, da cui discende la necessità di assicurare un controllo umano sui sistemi di intelligenza artificiale progettati per le predette finalità.
Intelligenza artificiale e sovranità digitale
Sia pure oggi in parte disattendendosi le iniziali aspettative trionfalistiche che ne avevano caratterizzano l’avvio procedurale anche a causa di un colpevole ritardo iniziale, la legge europea sull’Intelligenza Artificiale è stata considerata come uno strumento indispensabile in grado di affermare la “sovranità digitale” europea su scala globale rispetto all’attuale primato – già consolidato – di altre superpotenze tecnologiche (USA e Cina).
Del pari, si è cercato di colmare una non più rinviabile lacuna normativa anche per recuperare il ritardo esistente in un settore – come quello dell’Intelligenza Artificiale – in cui, in controtendenza alla fase embrionale dei “lavori in corsi” che si stanno effettuando ancora nel “cantiere europeo”, si è passati alla concreta attuazione di strategie emanate, integrate e rodate negli anni. Non vi è dubbio, infatti, che alcuni Paesi abbiano dimostrato un’intraprendenza lungimirante di intervento (emblematica la Pan-Canadian AI Strategy risalente al 2017), mediante il ricorso ad azioni concrete messe in campo nell’esperienza applicativa che esprimono visioni politiche in grado di recepire, in anticipo, le novità dell’evoluzione tecnologica, piuttosto che rincorrerne le relative dinamiche di uno sviluppo pervasivo troppo rapido da rendere obsoleto qualsivoglia normativa adottata secondo logiche procedurali lente e macchinose: non restare al passo con i tempi dettati dalla “convergenza tecnologica” significa, invero, dotarsi di un’infruttuosa “cassetta degli attrezzi” inidonei agli usi attuali connessi alle complesse sfide che l’inedita era tecnologica oggi vigente pone.
Una Ue troppo lenta rischia di non recuperare il gap
Si prospetta quindi una rilevante criticità che potrebbe pesare nel processo di regolamentazione europea dell’IA, anche alla luce di quanto indicato nella recente Risoluzione del Parlamento europeo del 3 maggio 2022 sull’intelligenza artificiale in un’era digitale con cui sono stati oggi recepiti gli orientamenti critici della Commissione speciale sull’intelligenza artificiale in un’era digitale (AIDA), certificando (come possibile fallimento politico?) la lentezza procedurale dell’UE che, lungi dall’acquisire un ruolo di primo piano nel settore dell’IA, è invece “rimasta finora indietro nella corsa globale per la leadership tecnologica”, contrariamente all’intraprendenza di altri Paesi all’avanguardia (come USA e Cina) già da tempo politicamente attivi, dimostrando la capacità di realizzare un necessario adeguamento del proprio quadro normativo vigente in materia.
In assenza di un cambio di rotta nel processo di regolamentazione dell’IA, si determinerebbe un progressivo peggioramento applicativo nello stato di attuazione dell’attuale cornice europea, ulteriormente aggravata da strategie nazionali ancora troppo imprecise e prive di obiettivi chiari, unitamente all’esistenza di svariati ostacoli amministrativi e prassi burocratiche troppo obsolete che, pertanto, richiedono un allineamento armonizzato e adeguato alle sfide poste dall’Intelligenza Artificiale, per affermare una visione comune ancorata ad un approccio “antropocentrico” configurabile come argine alle dinamiche attuali dell’evoluzione digitale prossima a raggiungere il livello della cd. “singolarità tecnologica” con implicazioni ancora non del tutto chiare e decifrabili.
Conclusioni
In altri termini, anche la Risoluzione del Parlamento europeo oggi riconosce (come autocritica anche al proprio modus operandi in termini di responsabilità politica?), “effetti dannosi sulla stabilità politica, la sicurezza sociale, le libertà individuali e la competitività economica”, a fronte di una serie di rilevanti ripercussioni negative che rendono vulnerabile l’Unione europea non solo come attore ancora troppo debole e tecnologicamente isolato “nello sviluppo di standard globali”, ma soprattutto esposta al rischio di tentativi manipolazione dell’opinione pubblica, nonché a sofisticate forme di spionaggio digitale a causa di svariate azioni di disturbo poste in essere mediante campagne massive di disinformazione in grado di “minare” gli standard democratici, compromettendo la sopravvivenza dei sistemi politici vigenti, nell’ambito di interferenze esterne riferibili a regimi autocratici o enti aziendali privati ostili.