La Commissione europea ha sottoposto al Parlamento e al Consiglio la proposta di Regolamento 2021/106 che armonizza il quadro sull’intelligenza artificiale (IA). l’insieme di tecnologie, in rapida evoluzione, che punta a migliorare il «benessere degli esseri umani».
La proposta, presentata lo scorso 21 aprile, rappresenta l’approccio europeo all’IA e frutto di un iter ampiamente partecipato, esito della consultazione pubblica successiva alla presentazione del Libro bianco sull’IA del 2020.
Nell’intento comunitario di promuovere il progresso tecnologico, assicurando un alto livello di protezione della salute, della sicurezza e dei diritti fondamentali degli individui, la proposta di regolamento della Commissione europea sull’intelligenza artificiale apre alla disciplina antidiscriminatoria e tutela delle vulnerabilità, anche se presta ancora scarsa attenzione nei confronti delle forme di discriminazione algoritmica
Intelligenza artificiale, la Ue cala il “poker”: tre chiavi di lettura per il nuovo Regolamento
Intelligenza artificiale, la disciplina antidiscriminatoria
L’intero impianto delineato dalla proposta di Regolamento della Commissione si basa sulla valutazione del rischio in merito alla capacità di compressione dei diritti fondamentali e della disciplina antidiscriminatoria dell’Unione europea.
Il rispetto del principio di non discriminazione è così centrale che il documento si spinge ad affermare che: “La presente proposta integra […] il diritto dell’Unione in vigore in materia di non discriminazione con requisiti specifici che mirano a ridurre al minimo il rischio di discriminazione algoritmica, in particolare in relazione alla progettazione e alla qualità dei set di dati utilizzati per lo sviluppo dei sistemi di IA, integrati con obblighi relativi alle prove, alla gestione dei rischi, alla documentazione e alla sorveglianza umana durante l’intero ciclo di vita dei sistemi di IA”.
Contro le discriminazioni algoritmiche
Le norme introdotte avrebbero, pertanto, la funzione di integrare e sviluppare la disciplina antidiscriminatoria precedente, con il fine di ridurre al minimo le discriminazioni algoritmiche, sia dirette sia indirette alla luce di quanto già stabilito in termini di soft-law dalla “Risoluzione sulle implicazioni dei Big Data per i diritti fondamentali: privacy, protezione dei dati, non discriminazione, sicurezza e attività di contrasto” del 2017.
Si aggiunge, inoltre, che il contrasto alle discriminazioni deve avvenire sia in fase di progettazione (ex ante) sia in fase di creazione e addestramento del data-set.
A quest’ultimo proposito si impiega la nozione di «robustezza» nel duplice significato di:
- «[resilienza] rispetto […] ai rischi connessi alle limitazioni del sistema (ad esempio errori, guasti, incoerenze, situazioni impreviste)»;
- e di capacità di resistenza alle «azioni dolose che possono compromettere la sicurezza del sistema di IA e comportare comportamenti dannosi o altrimenti indesiderati».
Opacità algoritmica dell’intelligenza artificiale
Particolare attenzione è dedicata altresì al problema dell’opacità algoritmica, per ovviare alla quale “è opportuno imporre un certo grado di trasparenza per i sistemi di IA ad alto rischio. Gli utenti dovrebbero poter interpretare gli output del sistema e utilizzarlo in modo adeguato. I sistemi di IA ad alto rischio dovrebbero pertanto essere corredati di documentazione e istruzioni per l’uso pertinenti, nonché di informazioni concise e chiare, anche in relazione, se del caso, ai possibili rischi in termini di diritti fondamentali e discriminazione”.
Rispetto del divieto di discriminazioni
In particolare, il rispetto del divieto di discriminazioni è specificamente invocato:
- con riguardo al trattamento di fornitori e utenti stabiliti nell’Unione piuttosto che in un paese terzo, là dove si afferma che la normativa prevista dal Regolamento si applica a tutta l’intelligenza artificiale in uso nel continente;
- rispetto all’impiego di «robot sempre più autonomi, sia nel contesto della produzione sia in quello della cura e dell’assistenza alle persone», con particolare riferimento al settore sanitario;
- a proposito dei sistemi di identificazione biometrica remota, i quali sono considerati come sistemi ad alto rischio se agiscono «in tempo reale e a posteriori»;
- nell’ambito dell’istruzione e della formazione professionale ovvero rispetto all’accesso a prestazioni e servizi pubblici e privati essenziali, dove eventuali errori, distorsioni o pregiudizi possono «perpetuare modelli storici di discriminazione»; nell’ambito delle attività di contrasto, polizia e amministrazione della giustizia;
- nelle operazioni di controllo e di accesso alle frontiere, per la gestione delle migrazioni e le richieste di asilo.
Intelligenza artificiale, la proposta di Regolamento UE
Perseguendo la finalità già esplicitata dalla “Dichiarazione di cooperazione sull’intelligenza artificiale” del 2018, dunque, l’organo promotore dei processi legislativi dell’Unione europea ha recentemente delineato un’ipotesi per la creazione di uno spazio giuridico comune.
Ciò dovrà servire ad affrontare le sfide poste dallo sviluppo delle tecnologie intelligenti, dando continuità al “Rapporto sulla responsabilità per l’intelligenza artificiale” e alle “Linee guida etiche per un’intelligenza artificiale affidabile”, già elaborate da un gruppo di esperti di sua nomina.
Attualmente al vaglio del Parlamento europeo e del Consiglio, la proposta di Regolamento era
stata sollecitata alla Commissione, in seguito alla “Risoluzione del Parlamento europeo concernente un quadro relativo agli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate” ed è stata emessa nell’ottobre 2020, insieme a una serie di risoluzioni che riguardano:
- l’IA in relazione all’etica;
- la responsabilità in ambito civilistico;
- la tutela dei diritti di proprietà intellettuale.
Hanno poi fatto seguito progetti di relazione sull’intelligenza artificiale nel diritto penale e nel settore dell’istruzione.
Il documento in esame è oggetto di grande interesse per i seguenti motivi:
- se entrasse in vigore, implicherebbe norme obbligatorie e immediatamente applicabili in ciascuno degli Stati membri, con ricadute capillari anche su utenti, consumatori e comuni cittadini;
- in quanto rappresenta un modello di regolamentazione, marcatamente europeo, imperniato su caratteristiche reputate essenziali nell’ambito della visione normativa del continente, a cominciare dalla prospettiva antropocentrica basata sul rispetto dei diritti fondamentali e dei valori dell’Unione.
Si tratta, pertanto, di un ulteriore tassello di una strategia normativa coesa che ambisce ad adottare strumenti regolatori adeguati al carattere di transnazionalità della rete e alle potenzialità difficilmente delimitabili e prevedibili dei sistemi intelligenti emergenti.
La tutela delle vulnerabilità nell’intelligenza artificiale
La nozione di “vulnerabilità”, che è stata di recente al centro di ampie riflessioni giusfilosofiche, è espressamente richiamata nell’ambito della proposta di Regolamento con due diverse accezioni.
Le vulnerabilità umane
Da un lato, essa si riferisce alle vulnerabilità “umane” di determinate persone o di gruppi di persone; dall’altro lato, è ricondotta alle caratteristiche degli stessi sistemi di intelligenza artificiale.
In primo luogo, infatti, si raccomanda particolare attenzione nei riguardi di quelle «persone che potrebbero subire il danno o l’impatto negativo [del sistema di intelligenza artificiale in quanto] si trovano in una posizione vulnerabile […], in particolare a causa di uno squilibrio di potere, conoscenza, situazione economica o sociale o età» (enfasi aggiunta). A tal proposito, come si è già accennato, è richiamata soprattutto la vulnerabilità connessa «all’età o alla disabilità fisica o mentale», la quale peraltro rileva specificamente al fine di individuare quei prodotti o servizi che, sfruttando le fragilità di alcuni gruppi di persone, manipolano gli esseri umani producendo danni fisici o psicologici e un rischio inaccettabile, risultando pertanto vietate.
La nozione di vulnerabilità è invocata anche in quanto condizione contestuale, situata, ovvero socialmente prodotta a causa di particolari situazioni contingenti: a cominciare dalla necessità di accedere a specifici servizi essenziali («le persone fisiche che chiedono o ricevono prestazioni e servizi di assistenza pubblica dalle autorità pubbliche sono di norma dipendenti da tali prestazioni e servizi e si trovano generalmente in una posizione vulnerabile rispetto alle autorità competenti», oppure nel caso di procedure di accesso alle frontiere, posto che «i sistemi di IA utilizzati nella gestione della migrazione, dell’asilo e del controllo delle frontiere hanno effetti su persone che si trovano spesso in una posizione particolarmente vulnerabile e il cui futuro dipende dall’esito delle azioni delle autorità».
Le vulnerabilità informatiche
In secondo luogo, vulnerabili sono i sistemi e le risorse digitali dinnanzi a crimini e attacchi informatici, i quali possono essere diretti contro il prodotto di intelligenza artificiale, alterandone l’uso e le finalità sino a comprometterne lo standard di sicurezza, oppure contro l’infrastruttura ICT o la rete sottostante.
Pertanto, soprattutto per i sistemi ad alto rischio, è opportuno offrire garanzia della comprovata capacità di resistenza «ai tentativi di terzi non autorizzati [volti a] modificarne l’uso o le prestazioni sfruttando le vulnerabilità del sistema».
Conclusioni
Nonostante la centralità attribuita alla disciplina antidiscriminatoria e alla nozione di vulnerabilità, la proposta di Regolamento della Commissione europea presta limitata attenzione nei confronti delle diverse modalità tecniche, attraverso le quali possono prodursi o riprodursi forme di discriminazione algoritmica.
È ormai noto che, accanto a una funzione veridittiva e predittiva, i sistemi intelligenti possono produrre comportamenti classificatori risultanti in trattamenti ingiustificatamente sfavorevoli nei confronti di classi di persone non immediatamente riconducibili ai fattori protetti dal diritto antidiscriminatorio dell’Unione (si pensi alle discriminazioni nel prezzo).
Inoltre, quanto alle caratteristiche che l’ordinamento ritiene meritevoli di tutela, occorre riflettere approfonditamente sul carattere strutturale e pervasivo di alcune forme di discriminazione, a partire da quelle basate sul genere o sull’origine etnica, le quali possono produrre, inter alia, discriminazioni esplicite e intenzionali ammantate da pretesti probabilistici, errori di archiviazione, pregiudizi statistici e di equa rappresentatività del modello, pregiudizi per connessione.
Per rendere autenticamente effettiva la tutela antidiscriminatoria applicata all’intelligenza artificiale, scegliendo al contempo di mettere effettivamente in cima alle priorità politiche quei valori europei che vengono reclamati come centrali nel paradigma giuridico del continente, sarebbe opportuno prevedere specifici strumenti risarcitori a danno di chi dimostri di aver subito una discriminazione algoritmica significativa a causa dell’appartenenza a cluster di persone generati dal sistema o a gruppi storicamente oppressi. Potrebbe essere questa l’occasione per ripensare l’accesso al giudizio antidiscriminatorio, per esempio prendendo spunto dall’istituto dell’azione di classe (o class action) disciplinato all’art. 140-bis del nostro Codice di Consumo (d.lgs. 206/2005).
Aspetti salienti della proposta sull’intelligenza artificiale
In apertura, il documento sottolinea l’importanza dello sviluppo tecnologico e dell’implementazione dei sistemi di intelligenza artificiale al fine di procurare «una vasta gamma di benefici economici e sociali in tutto lo spettro delle attività industriali e sociali», con ricadute positive non soltanto sulle sfere dell’economia e del mercato, ma anche su settori chiave come quello ambientale, sanitario, agricolo, finanziario, nonché sulla pubblica amministrazione, la mobilità e la sicurezza nazionale.
In generale, l’intelligenza artificiale potrà aumentare il «benessere degli esseri umani» rappresentando «uno strumento per le persone e un fattore positivo per la società».
Tuttavia, accanto a tali benefici auspici, si profila il pericolo che si faccia uso inefficace, distorto o addirittura nocivo per le persone e la collettività di sistemi, servizi, prodotti o componenti di prodotti intelligenti.
Un ecosistema di fiducia per l’IA
Il solo timore di una tale eventualità potrebbe avere effetti deterrenti, dissuadendo la ricerca, lo sviluppo tecnologico e gli investimenti. A questo proposito, il testo raccomanda la realizzazione di un «ecosistema di fiducia», realizzato mediante un quadro giuridico per un’intelligenza artificiale «affidabile».
Se, dunque, da un lato l’affidamento fiduciario è considerato un elemento fondamentale per la stabilità del mercato, dall’altro lato è alla cultura e alla pratica giuridica che si conferisce il compito di rassicurare produttori, fornitori e consumatori nell’esercizio corretto delle loro reciproche relazioni alla luce dei seguenti «obiettivi specifici»: sicurezza dei prodotti, coesione del mercato di riferimento, certezza del diritto, garanzia di effettività della disciplina normativa.
Ancorché l’interesse economico guidi le finalità dell’iniziativa, essa mette al centro «un’assoluta coerenza con la normativa vigente», e in particolare con la Carta dei diritti fondamentali, il diritto dell’Unione in materia antidiscriminatoria e gli impegni commerciali internazionali.
Dunque, l’iniziativa istituisce organismi di monitoraggio, crea una specifica banca dati, permette spazi di sperimentazione normativa e prevede l’applicabilità di sanzioni amministrative adeguate nel rispetto del principio di sussidiarietà degli Stati.
Quattro livelli di rischio
Più nel dettaglio, la proposta di Regolamento istituisce un sistema basato sulla valutazione del rischio per tutti i prodotti di intelligenza artificiale in uso all’interno dell’Unione, eccetto quelli sviluppati o utilizzati per scopi esclusivamente militari, individuando quattro livelli di rischio:
- inaccettabile;
- alto;
- moderato;
- basso.
Diritti fondamentali e dell’Unione
In primo luogo, là dove l’intelligenza artificiale comporti un rischio eccessivo per i diritti fondamentali e il rispetto del diritto dell’Unione, essa sarà vietata: è questo il caso di sistemi che agiscono mediante tecniche subliminali che potrebbero comportare danni fisici o psicologici per le persone coinvolte, o di prodotti che sfruttino le vulnerabilità di determinati soggetti come i minori o le persone disabili.
IA, conformità del prodotto
In secondo luogo, nel caso di sistemi ad alto rischio, quali quelli inerenti all’amministrazione della giustizia, alla sanità o all’istruzione, è prevista una procedura di conformità del prodotto ex ante, con il rilascio di un apposita marcatura, unitamente al rispetto di determinati requisiti relativi alla raccolta, all’uso, all’addestramento e alla conservazione dei dati, alla documentazione, conservazione e aggiornamento delle caratteristiche tecniche, alla trasparenza e fornitura di informazioni agli utenti, alla sorveglianza umana, alla robustezza, accuratezza e sicurezza complessiva delle operazioni.
A queste misure, che precedono l’immissione del prodotto sul mercato, si aggiungono inoltre obblighi di monitoraggio ex post e oneri documentali, imposti anche a utenti e altri partecipanti lungo la catena del valore del prodotto (per esempio importatori, distributori, rappresentanti autorizzati).
Criteri di trasparenza nell’IA
In terzo luogo, i sistemi a moderato rischio devono assolvere al dovere di informare gli utenti
circa la loro natura e finalità, rispettando criteri di trasparenza. Appartengono a questa tipologia i chat-bot e i sistemi basati sul deep-fake.
Criteri facoltativi
In quarto luogo, rispetto ai sistemi a basso rischio, come il filtraggio dello spam, si incentiva l’adozione di codici di condotta e del rispetto di standard più elevati di sicurezza, in termini tuttavia facoltativi.