È stata annunciata da parte del presidente USA Joe Biden la nuova AI Bill of Rights, un progetto che delinea un set di cinque principi e prassi associate da rispettare nella fase di progettazione, utilizzo e sviluppo di sistemi automatizzati.
L’obiettivo del progetto è quello di evitare che l’impiego – specialmente in settori come la sanità, le risorse umane o la concessione di credito – degli algoritmi nei processi decisionali possa costituire una lesione dei diritti fondamentali dei cittadini.
AI Bill of Rights, così gli Stati Uniti cominciano a preoccuparsi dell’intelligenza artificiale
“Troppo spesso”, si legge nel comunicato della Casa Bianca, “questi strumenti vengono utilizzati per limitare le nostre opportunità e impedire il nostro accesso a risorse o servizi critici. […] In America e in tutto il mondo, i sistemi che dovrebbero aiutare con la cura dei pazienti si sono rivelati non sicuri, inefficaci o distorti. È stato riscontrato che gli algoritmi utilizzati nelle decisioni di assunzione e di credito riflettono e riproducono disuguaglianze indesiderate esistenti o incorporano nuovi pregiudizi e discriminazioni dannose. La raccolta incontrollata di dati sui social media è stata utilizzata per minacciare le opportunità delle persone, minare la loro privacy o tracciare in modo pervasivo la loro attività, spesso a loro insaputa o senza il loro consenso”.
Tuttavia, questi risultati, sebbene profondamente dannosi, possono essere evitati: è proprio a tal scopo che nasce l’AI Bill of Rights, all’interno della quale sono codificati cinque principi che dovranno guidare gli sviluppatori e gli utilizzatori dei sistemi di intelligenza artificiale. Per ognuno dei cinque principi enunciati, il progetto fornisce altresì degli esempi di una loro possibile applicazione.
L’AI Bill of Rights a confronto con l’AI AcT
Sebbene il progetto di una nuova “Carta dei Diritti dell’IA” in esame rappresenti un passo avanti per gli Stati Uniti, nel processo di responsabilizzazione e riforma delle nuove tecnologie di intelligenza artificiale, lo stesso è stato oggetto di numerose critiche da parte degli esperti.
Ciò che si contesta, in particolare, è che i principi delineati nel Bill of Rights costituiscono una mera linea guida, cui dovrà necessariamente far seguito un’attività di tipo regolamentare/legislativo, che ponga degli effettivi limiti e obblighi all’applicazione dell’IA, specialmente nei settori maggiormente a rischio. È quanto in Europa si sta cercando di raggiungere con l’AI Act, che detta una serie di norme direttamente applicabili e volte a prevenire i danni causati dall’IA ai cittadini e ad introdurre nuove forme di responsabilità per le aziende che sviluppano un’IA “dannosa”.
Russell Wald, director of policy per lo Stanford Institute for Human-Centered AI, afferma che il documento manca inoltre di dettagli o meccanismi utili per la concreta applicazione legislativa dei principi enunciati nello stesso: “è scoraggiante vedere la mancanza di una politica federale coerente per affrontare le sfide disperatamente necessarie poste dall’IA, come il monitoraggio coordinato a livello federale, l’auditing e la revisione delle azioni per mitigare i rischi e i danni portati dai modelli di fondazione distribuiti o open source”, afferma, “Vorremmo vedere alcuni chiari divieti sulle implementazioni di IA che sono stati più controversi, che includono, ad esempio, l’uso del riconoscimento facciale per la sorveglianza di massa”. Sarebbe stata preferibile, dunque, l’implementazione di regolamenti applicabili a livello federale, al pari dell’AI Act europeo, con l’introduzione di nuove forme di controllo.
La Carta dei diritti dell’IA è “impressionante”, afferma ad ogni modo Marc Rotenberg, direttore del Center for AI and Digital Policy, un’organizzazione no profit che tiene traccia della politica sull’IA: “Questo è chiaramente un punto di partenza. Ciò non pone fine alla discussione su come gli Stati Uniti possano implementare un’IA incentrata sull’uomo e affidabile”, rappresentando comunque “un ottimo punto di partenza per spostare gli Stati Uniti in un luogo in cui possano portare avanti questo impegno”.
L’AI Bill of Rights potrà rappresentare, dunque, una base per la futura legislazione in materia di intelligenza artificiale; a tal riguardo, Sneha Revanur, alla guida di Encode Justice, un’organizzazione che si concentra sui giovani e sull’IA, afferma che “Sebbene sia limitata nella sua capacità di affrontare i danni del settore privato, la Carta dei diritti dell’IA può mantenere la sua promessa se viene applicata in modo significativo, e speriamo che seguirà l’esempio una regolamentazione efficace”.
I cinque principi delineati nell’IA Bill of Rights
Come anticipato, sono cinque i principi generali enunciati nella nuova Carta dei Diritti:
- Sistemi sicuri ed efficaci;
- Protezioni dalla discriminazione algoritmica;
- Privacy dei dati;
- Avviso e spiegazione;
- Alternative umane, considerazione e ripiego.
Il framework delineato dal progetto si applica a tutti i sistemi automatizzati che hanno “il potenziale per avere un impatto significativo sui diritti, le opportunità o l’accesso del pubblico americano a risorse o servizi critici”. Più nel dettaglio, i principi enunciati dovranno essere applicati a tutti quei sistemi che possono incidere su:
- L’esercizio dei diritti e delle libertà civili, inclusa la privacy, la libertà di parola, di voto e protezione da discriminazioni, punizioni eccessive, sorveglianza illegale e violazioni della privacy e di altre libertà in contesti sia del settore pubblico che privato;
- Pari opportunità, come un accesso equo all’istruzione, all’alloggio, al credito, all’occupazione e ad altri programmi;
- Accesso a risorse o servizi critici, come l’assistenza sanitaria, servizi finanziari, sicurezza, servizi sociali, informazioni non ingannevoli su beni e servizi e benefici governativi.
Le misure adottate per realizzare gli obiettivi delineati dal Bill of Rights dovranno, poi, essere proporzionate all’entità e alla natura del danno, o del rischio di danno, ai diritti, alle opportunità e all’accesso delle persone.
Sistemi sicuri ed efficaci
Il primo principio enunciato dall’AI Bill of Rights prevede che debba essere fornita protezione ai cittadini dai sistemi pericolosi o inefficaci. “I sistemi automatizzati”, si afferma, “dovrebbero essere sviluppati con la consultazione di diverse comunità, parti interessate ed esperti di dominio per identificare preoccupazioni, rischi e potenziali impatti del sistema”.
Inoltre, gli stessi dovrebbero essere “sottoposti a test pre-implementazione, all’identificazione e alla mitigazione dei rischi e a un monitoraggio continuo che dimostri che sono sicuri ed efficaci in base all’uso previsto, alla mitigazione dei risultati non sicuri, compresi quelli al di là dell’uso previsto, e al rispetto delle norme specifiche del dominio. I risultati di queste misure di protezione dovrebbero includere la possibilità di non implementare il sistema o rimuoverlo dall’uso”.
I sistemi automatizzati, inoltre, non dovranno essere progettati con l’intento o la “possibilità ragionevolmente prevedibile” di mettere in pericolo la sicurezza dei cittadini o di comunità di essi. Dovrebbero essere progettati, invece, per proteggere gli stessi “in modo proattivo dai danni derivanti da usi o impatti non intenzionali, ma prevedibili, dei sistemi automatizzati”. I cittadini, inoltre, dovrebbero essere protetti da usi inappropriati o non rilevanti dei dati nella “progettazione, nello sviluppo e nella distribuzione di sistemi automatizzati e dal danno aggravato del loro riutilizzo”.
Dovrebbero essere, da ultimo, effettuate “valutazioni e relazioni indipendenti che confermino che il sistema è sicuro ed efficace, compresa la segnalazione delle misure adottate per mitigare i potenziali danni, e i risultati dovrebbero essere resi pubblici ogniqualvolta possibile”.
Protezioni dalla discriminazione algoritmica
Il secondo principio enunciato dall’AI Bill of Rights afferma che nessun cittadino dovrebbe subire discriminazioni da parte degli algoritmi, e i sistemi dovrebbero essere utilizzati e progettati in modo equo.
“La discriminazione algoritmica”, si legge nel progetto, “si verifica quando i sistemi automatizzati contribuiscono a un trattamento diverso ingiustificato o influiscono sfavorendo le persone in base a razza, colore, etnia, sesso (inclusi gravidanza, parto e condizioni mediche correlate, identità di genere, stato intersessuale e orientamento sessuale), religione, età , origine nazionale, disabilità, stato di veterano, informazioni genetiche o qualsiasi altra classificazione protetta dalla legge”.
A seconda delle specifiche circostanze in cui avviene, tale discriminazione algoritmica può violare le tutele concesse dalla legge. Per tale ragione, progettisti, sviluppatori e gestori di sistemi automatizzati dovrebbero adottare “misure proattive e continue per proteggere gli individui e le comunità dalla discriminazione algoritmica e per utilizzare e progettare i sistemi in modo equo”.
Al fine di garantire detta protezione, dovrebbero essere condotte delle valutazioni proattive dell’equità del sistema nella fase di progettazione dello stesso, utilizzati dati rappresentativi e sistemi di protezione contro i proxy per le caratteristiche demografiche, garantendo l’accessibilità per le persone con disabilità nella fase di progettazione e sviluppo, pre-distribuzione e test e mitigazione delle disparità in corso e una chiara supervisione organizzativa.
Inoltre, dovrebbe essere eseguita una valutazione d’impatto algoritmica indipendente, i cui esiti dovranno essere resi pubblici ove possibile e comunicati in un linguaggio semplice ed accessibile, compresi i risultati dei “test di disparità”. Dovranno inoltre essere rese note tutte le informazioni relative alle azioni di mitigazione del rischio intraprese.
Privacy dei dati
Uno degli obiettivi principali che la Carta dei Diritti sull’IA si pone è anche quello di proteggere i cittadini da possibili pratiche abusive applicate sui dati personali. Al cittadino, infatti, dovrebbe essere sempre garantito il controllo sulle modalità e le finalità di utilizzo dei suoi dati, mediante l’integrazione all’interno del sistema di intelligenza artificiali di sistemi di protezione dall’abuso dei dati stessi.
Come affermato nel progetto, il cittadino dovrebbe “essere protetto dalle violazioni della privacy attraverso scelte progettuali che garantiscano che tali protezioni siano incluse per impostazione predefinita, inclusa la garanzia che la raccolta dei dati sia conforme alle aspettative ragionevoli e che vengano raccolti solo i dati strettamente necessari per il contesto specifico”. Pertanto:
- Progettisti, sviluppatori e gestori di sistemi automatizzati dovrebbero chiedere l’autorizzazione dell’interessato e rispettarne le decisioni in merito a raccolta, utilizzo, accesso, trasferimento ed eliminazione dei dati nei modi più appropriati alle finalità perseguite e nella misura massima possibile;
- ove ciò non fosse possibile, dovrebbero essere utilizzate salvaguardie alternative della privacy by design;
- I sistemi non dovrebbero utilizzare esperienze utente e scelte di progettazione che offuscano la scelta dell’utente medesimo o appesantiscono gli utenti con impostazioni predefinite invasive per la privacy.
Il progetto si focalizza anche sulla corretta gestione del consenso da parte degli interessati: eventuali richieste di consenso, infatti, “devono essere brevi, essere comprensibili in un linguaggio semplice e concedere all’utente il diritto di agire sulla raccolta dei dati e sul contesto specifico di utilizzo”. Allo stesso modo, ogni scelta concessa all’utente relativa all’uso dei suoi dati dovrebbe essere resa comprensibile.
Si evidenzia, poi, l’importanza di applicare restrizioni e protezioni maggiori ai dati sensibili, relativi alla salute, al lavoro, all’istruzione, alla finanza, alla giustizia e ai minori. Detti dati e le relative inferenze, si afferma, “dovrebbero essere utilizzati solo per le funzioni necessarie e dovresti essere protetto da revisione etica e divieti di utilizzo”.
In relazione ai sistemi di sorveglianza, si afferma, in linea generale, che i cittadini dovrebbero essere liberi da una sorveglianza incontrollata, e che le tecnologie utilizzate a fini di sorveglianza dovrebbero essere soggette ad un maggiore controllo, che includa almeno una valutazione preliminare all’implementazione, che analizzi i loro potenziali danni e limiti di portata per proteggere la privacy e le libertà civili.
La sorveglianza e il monitoraggio continui, inoltre, “non dovrebbero essere utilizzati nell’istruzione, nel lavoro, nell’alloggio o in altri contesti in cui è probabile che l’uso di tali tecnologie di sorveglianza limiti i diritti, le opportunità o l’accesso”. La sorveglianza e il monitoraggio continui, inoltre, non dovrebbero essere utilizzati nei settori dell’istruzione, del lavoro, dell’assegnazione di un alloggio o in altri contesti in cui è probabile che l’uso di tali tecnologie di sorveglianza limiti i diritti, le opportunità o l’accesso degli interessati. La sorveglianza e il monitoraggio continui non dovrebbero essere utilizzati nell’istruzione, nel lavoro, nell’alloggio o in altri contesti in cui è probabile che l’uso di tali tecnologie di sorveglianza limiti i diritti, le opportunità o l’accesso. Quando possibile, poi, si dovrebbe garantire l’accesso a rapporti che confermano che le decisioni sui dati intraprese dall’utente sono state rispettate e forniscono una valutazione del potenziale impatto delle tecnologie di sorveglianza sui diritti e le opportunità degli interessati.
Avviso e spiegazione
Il quarto principio enunciato dalla Carta dei Diritti pone l’attenzione sulla comunicazione nei confronti degli interessati. Questi ultimi, infatti, dovrebbero conoscere quanto viene utilizzato un sistema automatizzato e capire in che modo e per quali motivazioni lo stesso contribuisce a fornire dei risultati che hanno un impatto su di loro, anche nei casi in cui il risultato non è determinato esclusivamente sulla base di un input automatizzato.
Pertanto, si pone in capo a progettisti, sviluppatori e gestori di sistemi automatizzati, l’onere di fornire la documentazione necessaria per rendere dette informazioni, in un linguaggio semplice e accessibile, inclusivo di descrizioni chiare circa il funzionamento generale del sistema e il ruolo svolto dall’automazione, oltre che sugli individui o le organizzazioni responsabili del sistema, e spiegazioni sui risultati resi tempestive e accessibili.
Gli avvisi resi all’utente dovrebbero essere sempre aggiornati, e ogni modifica rilevante dovrà essere comunicata all’utente medesimo.
Inoltre, i sistemi automatizzati dovrebbero fornire spiegazioni tecnicamente valide, significative e utili all’utente ed a tutti i soggetti che hanno bisogno di comprendere come funziona il sistema stesso, calibrate in base al livello di rischio e al contesto in cui sono utilizzati, oltre che sintetiche, chiare e semplici.
Alternative umane, considerazione e fallback
L’ultimo principio enunciato dall’AI Bill of Rights afferma che l’utente dovrebbe “essere in grado di effettuare un opt-out, se del caso, e avere accesso a una persona che può considerare e porre rimedio rapidamente ai problemi che incontra”.
In sintesi, dovrebbe garantirsi un’alternativa umana ai sistemi automatizzati, che sia adeguata allo scopo, sulla base di aspettative ragionevoli in un determinato contesto e con l’obiettivo di garantire un’ampia accessibilità e proteggere il pubblico da impatti particolarmente dannosi.
Dovrebbe, inoltre, essere garantito l’accesso ad una “considerazione umana tempestiva” che possa rimediare e attuare una forma di ripiego nel caso in cui un sistema automatizzato dovesse presentare dei guasti o produrre un errore, oppure nel caso in cui l’utente desideri contestarne le decisioni che hanno avuto un impatto su di lui.
L’alternativa umana e gli strumenti di ripiego dovrebbero essere “accessibili, equi, efficaci, mantenuti, accompagnati da un’adeguata formazione degli operatori e non dovrebbero imporre un onere irragionevole al pubblico”.
Nel caso, poi, in cui i sistemi automatizzati siano utilizzati in settori sensibili, come la salute, la giustizia, l’occupazione e l’istruzione, dovrebbero “dovrebbe inoltre essere adattato allo scopo, fornire un accesso significativo per la supervisione, includere la formazione per tutte le persone che interagiscono con il sistema e incorporare la considerazione umana per le decisioni avverse o ad alto rischio”.
Conclusioni
I principi dettati dall’AI Bill of Rights si pongono, dunque, quali fondamenta per l’implementazione – a livello legislativo – di nuove leggi che tutelino i cittadini da possibili forme di abuso dei sistemi di intelligenza artificiale. Tuttavia, come detto in premessa, trattasi comunque di principi non obbligatori, che costituiscono linee guida e non introducono nuovi obblighi in via diretta, al contrario di quanto invece si prevede nell’AI Act europeo, che andrà a introdurre una serie di obblighi e di tutele coerenti a livello comunitario ed immediatamente efficaci nei confronti dei soggetti che si occupano di sviluppare o utilizzare sistemi di intelligenza artificiale.
Si tratta, dunque, di un passo ancora particolarmente timido verso l’effettivo adeguamento della normativa statunitense vigente alle nuove necessità di tutela che le nuove tecnologie impongono, per quanto da accogliersi senza dubbio favorevolmente, nell’ottica di una progressiva armonizzazione delle diverse normative in tema di intelligenza artificiale.