dopo il regolamento UE

Le norme mondiali sull’intelligenza artificiale: a che punto siamo

Dopo la pubblicazione della bozza di regolamento Ue, lo stato dell’arte della normativa sull’intelligenza artificiale in Canada, Nuova Zelanda e Australia; USA. Nel percorso ideale di trovare una quadra mondiale alla normativa

Pubblicato il 13 Mag 2021

Marina Rita Carbone

Consulente privacy

intelligenza artificiale pregiudizio

La proposta di Regolamento sull’intelligenza artificiale pubblicata dalla Commissione Europea ha rappresentato un punto di svolta nella regolamentazione del fenomeno IA: ma è un apice di una costruzione che si sta strutturando in vari paesi del mondo.

L’ambizione dell’UE (vedi riquadro sotto) è guidare altri Paesi verso una regolamentazione omogenea, globale. Che è il solo modo possibile per altro per attuare regole davvero efficaci in un ambito tecnologico globale per eccellenza; dove per altro le tecnologie sono sviluppate perlopiù fuori dall’Europa.

Commissione UE: “Ecco la vera forza del Regolamento AI”

Nel seguito, senza pretesa di completezza, una disamina dello “stato dell’arte” in cui versano le differenti normative su scala globale relativamente ai sistemi di intelligenza artificiale.

Il Canada: culla dell’intelligenza artificiale

Al giorno d’oggi, il Canada rappresenta una culla per lo sviluppo di sistemi di intelligenza artificiale: conta, infatti, oltre 4.000 startup attive nel settore, in aumento nel 2017 e nel 2018 del 28% rispetto agli anni precedenti.

Il Montreal Insitute for Learning Algorithms, in particolare, rappresenta uno dei più grandi laboratori pubblici di deep learning al mondo, e conta partner del calibro di IBM, Facebook e Google.

L’importanza che le IA rivestono, dunque, nel tessuto imprenditoriale e produttivo canadese, hanno portato a un maggiore sviluppo anche della normativa sul tema, sotto diversi profili:

  • Proprietà intellettuale: vi è un ampio dibattito, infatti, sulla possibilità o meno che un’IA possa essere classificata come inventore e, come tale, possa esserle garantito il diritto d’autore e la possibilità di brevettare l’opera;
  • Privacy: la legge canadese sulla tutela dei dati personali prevede che l’elaborazione di informazioni su individui identificabili sia basata su un consenso esplicito e informato, al pari di quanto previsto dal nostrano GDPR. Anche ove il consenso sia correttamente raccolto, inoltre, occorre che gli scopi perseguiti, la raccolta, l’uso e la divulgazione dei dati personali siano “ragionevoli”: pertanto, i fornitori di servizi basati sulle IA si stanno orientando sempre maggiormente sull’utilizzo di dati “anonimizzati”, compito affatto semplice e banale;
  • Illeciti: parte della giurisprudenza canadese ha avuto modo di pronunciarsi anche sulla possibilità di estendere ai sistemi di IA (e, nello specifico, ai loro ideatori) alcune delle responsabilità tipicamente proprie delle forniture di prodotti e servizi. Tra gli ambiti sinora riconosciuti rientrano: difetti di fabbricazione e progettazione dei sistemi di IA; mancata valutazione del rischio per i diritti dei consumatori; mancata informazione o avviso dei consumatori in merito ai possibili danni che possano derivare loro dall’uso di tale tecnologia;

Maggiormente specifiche e delineate sono anche le strategie del governo canadese. Ad oggi, coesistono in merito al tema delle IA due principali atti normativi: il Digital Charter Implementation Act e la Direttiva sui processi decisionali automatizzati.

La Carta Digitale del Canada, parte della strategia nazionale sui dati, contiene dieci principi fondamentali il cui scopo è quello di guidare l’azione dei legislatori sfruttando, al contempo, il potere dei dati e della trasformazione digitale. Tra i principali principi inerenti ai sistemi di intelligenza artificiale ritroviamo:

  • La necessità di ottenere un consenso informato che permetta all’interessato di compiere scelte consapevoli in merito all’utilizzo dei propri dati;
  • Il diritto alla portabilità dei dati personali e all’interoperabilità dei sistemi;
  • Il diritto alla revoca del consenso al trattamento dei propri dati;
  • L’obbligo, da parte delle aziende, di adottare stringenti requisiti di trasparenza a tutti i sistemi decisionali automatizzati come algoritmi e intelligenza artificiale. Ai singoli si riconosce anche il diritto di chiedere alle aziende che forniscono tali servizi di spiegare in che modo una specifica previsione, raccomandazione o decisione sia stata presa da un sistema decisionale automatizzato e in che modo sono state ottenute le informazioni;

La direttiva sui processi decisionali automatizzati, invece, introduce una serie di norme che regolano l’uso delle IA da parte del governo canadese, nel caso in cui il sistema sia stato sviluppato acquistato dopo il 1° aprile 2020. L’intera direttiva adotta un approccio basato sul rischio, che comprende anche obblighi di notifica anticipata dell’applicazione di processi decisionali automatizzati per decisioni che possono avere un impatto sui cittadini e numerosi obblighi di trasparenza in merito ai processi che hanno portato all’adozione di una decisione in luogo di un’altra.

I principali punti innovativi della normativa canadese

  • La necessità di svolgere una valutazione di impatto dell’algoritmo prima che il sistema decisionale automatizzato sia prodotto, e l’obbligo di pubblicare i risultati di tale valutazione in un formato accessibile sui canali istituzionali del Governo;
  • L’obbligo di rendere noto al cittadino, tramite i canali di erogazione del servizio, che la decisione sarà resa in tutto o in parte da un sistema decisionale automatizzato;
  • L’obbligo di fornire una spiegazione chiara ed esaustiva sulle modalità e sulle motivazioni che hanno portato il sistema ad intraprendere una specifica decisione;
  • Il diritto, da parte del Governo canadese, di accedere al sistema decisionale automatizzato e di testarlo, al fine di condurre delle ispezioni sul corretto funzionamento dello stesso.
  • L’obbligo di documentare le decisioni prese dai sistemi decisionali automatizzati, in conformità a quanto previsto dalla direttiva sui servizi e sul digitale, oltre che a sostegno dei generali obblighi di segnalazione e monitoraggio posti in capo al governo;
  • L’obbligo di testare i sistemi prima della loro produzione, al fine di evitare distorsioni involontarie dei dati o l’insorgenza di bias che possono influire sui risultati;
  • L’obbligo di garantire che un sistema decisionale automatizzato consenta anche l’intervento umano;

Il quadro normativo canadese appare, pertanto, uno dei più avanzati in relazione al tema dell’intelligenza artificiale, sebbene manchi ancora un’applicazione generalizzata dei principi in esso contenuti, oltre che conforme ai principi individuati anche dall’UE nella proposta di regolamento.

Gli sviluppi in Nuova Zelanda

Anche in Nuova Zelanda, cresce lo sviluppo e la produzione di soluzioni basate sui sistemi di intelligenza artificiale, anche in settori strategici come l’agricoltura, l’energia, i servizi finanziari, i trasporti, le telecomunicazioni e il commercio al dettaglio.

Tale processo di trasformazione digitale, ovviamente, rende necessario adeguare la normativa vigente, al fine di evitare che possano insorgere delle forme di abuso delle tecnologie di IA o che possano esserci delle discriminazioni, in particolar modo nel settore bancario e della pubblica sicurezza.

Stando a quanto riportato dalla stampa neozelandese, infatti, alcune di queste distorsioni si sarebbero già verificate, nel settore dell’immigrazione. Sarebbero infatti emerse delle notizie secondo cui l’immigrazione neozelandese avrebbe implementato un sistema di intelligenza artificiale che consentiva di rintracciare i migranti “indesiderati”, sulla base dei dati di 11.000 immigrati irregolari, anche al fine di prevedere il costo medio di ognuno di tali migranti per il governo neozelandese.

Tra le informazioni oggetto di analisi sarebbero rientrate: età, sesso, paese di origine, visto detenuto al momento dell’ingresso in Nuova Zelanda, coinvolgimento con le forze dell’ordine e l’utilizzo del servizio sanitario. Informazioni, queste, altamente sensibili, il cui utilizzo distorto e illecito è da considerarsi ad alto rischio per i diritti dei migranti coinvolti.

Tant’è che le preoccupazioni emerse in relazione al danno che tale IA poteva causare per l’intero sistema di immigrazione neozelandese hanno poi spinto il governo a chiarire, in un impeto di trasparenza, le modalità di utilizzo effettive dell’algoritmo, ponendo le basi per l’implementazione di un obbligo sistematico di trasparenza sullo sviluppo e sull’utilizzo degli algoritmi di IA e machine learning.

Ad oggi, infatti, è in corso di lavorazione da parte del governo una “Carta dell’Algoritmo” che obbligherà tutte le istituzioni governative a utilizzare algoritmi in modo equo, etico e trasparente, sulla scorta di una valutazione di impatto sugli individui coinvolti e sui gruppi di cittadini.

La “soft law” Australiana

Da ultimo, anche l’Australia ha avuto e ha tuttora un ruolo importante nella ricerca e nello sviluppo di sistemi di intelligenza artificiale. Solo nel 2017, l’Australian National University ha annunciato un investimento di 10 anni nello studio delle capacità delle IA, tramite l’Autonomy, Agency and Assurance Institute.

Tuttavia, l’Australia mantiene un modello normativo sul tema fondato prevalentemente su “soft law”, ovvero su linee guida, prassi, “framework” e “roadmap”. In poche parole, un’autoregolamentazione in luogo di una legislazione uniforme governativa, parzialmente integrata alla normativa sulla privacy (il Privacy Act) che prevede che le informazioni personali debbano essere utilizzate soltanto per lo scopo per il quale il consenso è stato fornito.

Siffatto sistema normativo, però, non è adeguato alle nuove sfide che i sistemi di intelligenza artificiale pongono: un’intelligenza artificiale, infatti, non tratta semplicemente informazioni ma ne elabora sempre di nuove, anche al di fuori di quelli che sono gli usi “autorizzati”.

A tal riguardo, il governo ha riconosciuto che la normativa privacy necessita di essere adeguata alle nuove prospettive fornire dai sistemi di intelligenza artificiale, istituendo anche un ufficio (l’Office of the Australian Information Commissioner) che si occupa di elaborare standard per l’uso e l’implementazione delle IA in modo conforme alle previsioni privacy vigenti.

Analogamente, numerose organizzazioni, anche non governative, tra cui la rete “Data61” della Commonwealth Scientific and Industrial Research Organisation (CSIRO) si stanno occupando di elaborare dei documenti strategici chiave che dettino le best practice per l’uso e lo sviluppo etico delle IA, secondo otto principi fondamentali, fra cui la centralità del benessere sociale, il rispetto delle diversità, dell’autonomia e dei diritti umani, la trasparenza e la privacy. A sua volta, la Commissione australiana per i diritti umani ha pubblicato nel dicembre 2019, un documento di discussione interinale sui diritti umani e la tecnologia che delinea 29 proposte per stabilire e migliorare il quadro australiano per la protezione dei diritti umani in relazione alle tecnologie emergenti, con particolare attenzione all’IA e al suo uso e attuazione nelle procedure decisionali.

L’obiettivo ultimo è quello di garantire che lo sviluppo tecnologico avvenga all’interno dei confini già definiti dalla normativa vigente, implementata e integrata da documenti interpretativi ulteriori che creino un “quadro” digitale innovativo e al passo coi tempi.

Un approccio certamente lento ma progressivo, differente da quello adottato dall’Unione Europea, che cerca di definire precisi standard “ex ante”.

E gli USA?

Negli Stati Uniti c’è la partita più importante, sul fronte delle regole, e qui la sfida sarà innovare la regolamentazione che è ancorata a principi tradizionali e al tempo stesso trovare una uniformità federale (non raggiunta ancora nemmeno sulla privacy, sulla scorta del nostro Gdpr, anche se sembra un traguardo sempre più vicino).

Un passo importante sembra essere, in tal senso, le recenti indicazioni FTC (vedi sotto).

Regole su intelligenza artificiale: la Ue prende le distanze dal modello Usa

Dalla Commissione UE hanno spiegato ad Agendadigitale.eu inoltre che sono in corso colloqui, ora in formale e auspicabilmente in futuro formali, per trovare regole comuni; e che l’approccio USA è comunque risk-based e quindi non troppo diverso da quello del Regolamento UE.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati