Procedono i lavori per l’elaborazione di una legislazione europea sull’intelligenza artificiale, che dovrebbe essere presentato entro quest’anno.
Verso una legislazione Ue sull’IA: i passaggi chiave
Il percorso è iniziato ad aprile 2019 con gli orientamenti etici della Commissione per un’intelligenza artificiale affidabile redatti da un gruppo di esperti di alto livello da essa istituito e le successive raccomandazioni dello stesso sulle politiche di investimento per un’intelligenza affidabile.
Poi, a seguito della pubblicazione del libro bianco sull’intelligenza artificiale della Commissione, si è svolta un’importante consultazione pubblica tra febbraio e giugno 2020. I libri bianchi della Commissione “sono documenti che contengono proposte di azione dell’Unione europea (UE) in un settore specifico. Essi costituiscono talvolta il prolungamento dei libri verdi, il cui scopo è invece quello di avviare un processo di consultazione a livello dell’UE. Lo scopo dei libri bianchi è di avviare una discussione con il pubblico, le parti interessate, il Parlamento europeo e il Consiglio allo scopo di raggiungere il consenso politico” (dal “Glossario delle sintesi” reperibile sul sito eur-lex.europa.eu).
La consultazione ha attirato oltre 1200 contributi da cittadini europei, Stati membri, società civile, industria, accademici e altre parti interessate. Un report redatto sulla base delle varie risposte al libro bianco durante la fase di consultazione è stato pubblicato nel novembre 2020. Questa consultazione online fa parte di un più ampio processo di coinvolgimento delle parti interessate che contribuirà alla preparazione di varie opzioni normative. A seguito di un’analisi approfondita dei risultati della consultazione e di una valutazione d’impatto dettagliata, verrà presentata una proposta normativa.
La Commissione dovrebbe finalmente presentare la sua proposta di regolamentazione orizzontale dell’intelligenza artificiale il 24 aprile 2021, come annunciato dalla presidente Ursula von der Leyen. Tale documento mirerà a salvaguardare i valori e i diritti fondamentali dell’UE e la sicurezza degli utenti, imponendo agli sviluppatori di sistemi di IA ad alto rischio a soddisfare i requisiti obbligatori relativi alla loro affidabilità. Ad esempio, garantire la supervisione umana e informazioni chiare sulle capacità e sui limiti dell’IA.
Intelligenza artificiale, il punto sulla strategia europea: policy e prospettive
Le raccomandazioni del Center for Information Policy Leadership
È in questo contesto che il Center for Information Policy Leadership (CIPL) ha pubblicato le sue raccomandazioni per l’adozione di un approccio basato sul rischio in un regolamento dell’UE sull’Intelligenza Artificiale. Il CIPL suggerisce che qualsiasi forma di regolamentazione dell’IA dovrebbe “rimanere agile, proprio come la tecnologia che cerca di regolamentare”, questo a vantaggio degli individui, delle organizzazioni, dei regolatori, della società e dell’economia. Raccomandazioni più specifiche includono un quadro normativo incentrato sulle applicazioni di IA “ad alto rischio”, un quadro di responsabilità basato sul rischio e una supervisione dettagliata
Le raccomandazioni del CPIL si basano su tre principi: una regolamentazione limitata ai sistemi di IA ad alto rischio, che metta al centro il principio di accountability, e che preveda un meccanismo di supervisione basato sul rischio.
Un regolamento sull’intelligenza artificiale dovrebbe concentrarsi solo su quelle applicazioni di IA che sono ad alto rischio ed essere proporzionato e coerente in relazione al corpus legislativo esistente in tutta l’UE che si applica in modo neutrale dal punto di vista tecnologico. Pertanto, è necessario che le organizzazioni abbiano un modo per determinare se le loro applicazioni di intelligenza artificiale soddisfano i criteri di soglia ad alto rischio per rientrare nell’ambito di applicazione del regolamento. La CIPL propone quindi diversi criteri per determinare se l’IA rientri o meno in questa categoria.
Data la natura stessa e la costante evoluzione dei vari sistemi di intelligenza artificiale, infatti, una legislazione sull’IA troppo rigida ed estesa correrebbe il rischio di diventare obsoleta e/o poco praticabile sin dalla sua adozione. Una tale limitazione dello scopo di applicazione della futura regolamentazione è fondamentale in questo contesto.
Inoltre, seguendo un ragionamento simile a quello che ha condotto all’adozione del GDPR, l’approccio normativo dell’IA dovrebbe evitare di imporre requisiti prescrittivi dato il ritmo dell’evoluzione di queste tecnologie, lasciando una certa flessibilità per far sì che la regolamentazione non diventi rapidamente obsoleta. Dovrebbero essere previste, invece, regole basate su principi e risultati, che consentano alle organizzazioni di progredire verso il raggiungimento di obiettivi specifici (equità, trasparenza, accuratezza, controllo umano, ecc.) attraverso misure interne basate sul rischio, concrete, dimostrabili e verificabili.
Il principio di responsabilità delle organizzazioni
Pertanto, l’inclusione di un requisito esplicito di accountability farà sì che le organizzazioni siano più attente ai rischi e agli impatti delle loro applicazioni IA e le aiuterà a stabilire processi e controlli per sviluppare e implementare applicazioni IA responsabili, affidabili e sostenibili.
In questo contesto è importante, soprattutto quando un’applicazione IA presenta un rischio elevato, che tutte le organizzazioni, indipendentemente dalle loro dimensioni, mettano in atto i processi e i controlli necessari, che tengano in considerazione anche le legittime aspettative del mercato, dei partner commerciali e degli utenti, e che risultino in particolar modo in garanzie adeguate. Molte organizzazioni utilizzano già in modo proattivo quadri di responsabilità per affrontare le opportunità, i rischi, le sfide e le tensioni presentate dall’uso dell’IA, nonché per rispettare le regolamentazioni pertinenti, comprese le leggi sulla protezione dei dati e contro la discriminazione, e per considerare in modo proattivo le aspettative sociali e garantire la fiducia dei clienti. Queste best practice emergenti stanno iniziando a prendere forma come quadri di intelligenza artificiale e strumenti tecnici coerenti e completi, e probabilmente catalizzeranno lo sviluppo e l’implementazione di best practice da parte di tutte le parti interessate nell’ecosistema dell’IA, innescando un effetto di “corsa verso l’alto”. Queste pratiche consentiranno inoltre alle organizzazioni di promuovere la responsabilità organizzativa basata sul rischio come ponte per lo sviluppo di linee guida armonizzate e interoperabili a livello globale sulle applicazioni e gli usi dell’IA. Il quadro normativo dovrebbe inoltre fornire ricompense e incoraggiamenti adeguati al fine di stimolare ulteriormente e contribuire ad accelerare l’accountability e l’implementazione delle best practice.
Intelligenza artificiale, le regole per uno sviluppo a vantaggio di tutti
Una supervisione normativa moderna e flessibile
In più, le nuove tecnologie e gli usi innovativi richiedono una supervisione normativa moderna e flessibile. La supervisione delle pratiche relative all’IA dovrebbe essere basata sull’attuale ecosistema di regolatori settoriali e nazionali, comprese le autorità di protezione dei dati, ma con una collaborazione e coerenza forte e non burocratica. Raramente, infatti, si verificherà una situazione in cui i rischi generati da un’applicazione d’Intelligenza Artificiale non siano già sotto la supervisione di un regolatore esistente. L’esperienza e l’acume delle autorità di regolamentazione esistenti in materia di IA dovrebbero essere ampliate, piuttosto che creare un ulteriore livello di agenzie specifiche per questo settore. La supervisione e l’applicazione delle tecnologie intelligenti dovrebbero altresì essere eseguite attraverso una struttura europea o un organo di supervisione sull’IA, composto da esperti della materia, per consentire una cooperazione agile “su richiesta” e promuovere un’applicazione coerente dei principi.
Infine, le autorità di regolamentazione esistenti competenti dovrebbero implementare una supervisione e un’applicazione basate sul rischio, concentrandosi sulle aree dell’IA ad alto rischio, che riconoscono la conformità come un processo e un percorso dinamico, consentendo prove in buona fede ed errori onesti e un miglioramento costante. Questo approccio creerebbe un modo efficiente per risolvere i problemi di non conformità consentendo la risoluzione più rapida dei casi e potrebbe anche funzionare meglio nelle “aree grigie” della conformità, dove l’intelligenza artificiale crea tensione con le norme legali e dove potrebbe richiedere un tempo più lungo e uno sforzo più concertato e collaborativo per trovare una soluzione e migliorare la conformità sul campo.
Queste raccomandazioni ambiscono a fornire un quadro giuridico forte e allo stesso tempo agile in grado di fornire una alta protezione degli individui nel rispetto della natura evolutiva dell’IA che favorisca il progresso tecnologico.
Le risposte degli Stati membri al libro bianco della Commissione
Allo stesso tempo, gli Stati membri appaiono divisi sulla strada da intraprendere.
In un documento di sintesi i ministri del digitale di Danimarca, Belgio, Repubblica Ceca, Finlandia, Francia, Estonia, Irlanda, Lettonia, Lussemburgo, Paesi Bassi, Polonia, Portogallo, Spagna e Svezia hanno invitato la Commissione a incentivare lo sviluppo di tecnologie di intelligenza artificiale di nuova generazione, piuttosto che creare barriere.
La proposta dei 14 Paesi sarebbe piuttosto di orientarsi verso soluzioni di soft law come l’autoregolamentazione, l’etichettatura volontaria e altre pratiche volontarie, nonché un solido processo di standardizzazione come supplemento alla legislazione esistente che garantisce il rispetto degli standard essenziali di sicurezza e di protezione. Il soft law permetterebbe di imparare dalla tecnologia e identificare le potenziali sfide ad essa associate, tenendo conto della sua rapida evoluzione.
In senso contrario, la posizione tedesca propone un ambito molto ampio per le tecnologie che dovrebbero essere soggette alla nuova regolamentazione. La Germania ha così espresso il timore che la Commissione voglia applicare restrizioni solo alle applicazioni di IA ritenute ad alto rischio, temendo altresì che gli attuali piani della Commissione portino ad una situazione in cui alcuni usi ad alto rischio non sarebbero coperti dall’inizio se non rientrassero in determinati settori.