le proposte

Verso una regolamentazione europea dell’Intelligenza Artificiale: posizioni a confronto

In attesa della proposta legislativa sull’Intelligenza Artificiale della Commissione europea, la cui emanazione è prevista per l’inizio del 2021, le varie istituzioni europee e gli Stati Membri sono stati protagonisti di un lungo dibattito su come effettivamente regolamentare la materia

Pubblicato il 11 Nov 2020

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017

Roberta Savella

Docente in materia di diritto delle nuove tecnologie e responsabile per la formazione presso Istituto di Formazione Giuridica SRLS Unipersonale

intelligenza artificiale pregiudizio

Negli ultimi mesi l’Intelligenza Artificiale è stata al centro di un lungo dibattito tra le varie istituzioni europee. Fin dall’insediamento della Commissione presieduta da Ursula Von Der Leyen, il tema ha assunto una rilevanza centrale: è necessaria una regolamentazione efficace e puntuale della materia, per permetterne lo sviluppo e creare così le basi per un’Unione Europea leader nel campo delle nuove tecnologie.

Oggi questo bisogno è più vivo che mai: l’Intelligenza Artificiale può diventare un’arma essenziale nella lotta alla pandemia e alla crisi ambientale. Cresce l’attenzione del legislatore e crescono gli investimenti, con una stima dell’impatto economico dell’automazione del lavoro della conoscenza, dei robot e dei veicoli autonomi nel 2025 che arriva a 12.000 miliardi di euro l’anno; si prevede, inoltre, la creazione di 60 milioni di nuovi posti di lavoro grazie all’IA e alle nuove tecnologie. In quest’ottica, lo scorso febbraio la Commissione ha pubblicato un Libro Bianco sull’Intelligenza Artificiale ed è prevista l’emanazione di una proposta legislativa all’inizio del 2021. In seno al Parlamento europeo è stata costituita la commissione speciale sull’intelligenza artificiale in un’era digitale (AIDA) e lo scorso ottobre sono state approvate tre proposte per una regolamentazione efficace dell’IA.

Una coalizione di 14 Stati ha firmato un Position paper in cui si chiede alla Commissione di adottare un approccio di soft law alla regolamentazione dell’Intelligenza Artificiale, più che un vero e proprio documento normativo.

Lo scorso settembre, inoltre, anche lo European Data Protection Supervisor si è espresso sull’argomento, formulando alcuni dubbi sull’opportunità di creare una legge ad hoc per disciplinare questa materia.

Investimenti, fiducia e Intelligenze Artificiali ad alto rischio

Nel Libro Bianco della Commissione vengono posti due obiettivi: la creazione di un “ecosistema di eccellenza” e di un “ecosistema di fiducia”. Il primo riguarda gli investimenti che devono essere fatti in ogni Stato membro per favorire lo sviluppo delle nuove tecnologie, portando l’Unione Europea a una posizione di vertice nel campo del progresso scientifico in questo settore; si pensa, inoltre, all’istituzione nell’Unione di un punto di riferimento mondiale per la ricerca nell’ambito dell’IA.

Nella nascita di un “ecosistema di fiducia”, invece, un ruolo centrale è svolto dal legislatore. La sicurezza dei cittadini nell’utilizzo delle Intelligenze Artificiali, così come quella degli sviluppatori nella loro messa a punto, si può ottenere soltanto avendo a disposizione regole precise, chiare e puntuali a disciplina di questa materia.

Per la realizzazione di un quadro normativo, la Commissione ritiene opportuno seguire un approccio basato sul rischio. Le prescrizioni obbligatorie si applicherebbero solo alle IA classificate come ad “alto rischio” perché soddisfano cumulativamente i seguenti criteri:

  • l’applicazione di IA è utilizzata in un settore in cui, date le caratteristiche delle attività abitualmente svolte, si possono prevedere rischi significativi;
  • l’applicazione dell’IA nel settore in questione è inoltre utilizzata in modo tale da poter generare rischi significativi.

In questo modo, sarebbe garantita un’applicazione del quadro normativo mirata e la certezza del diritto.

L’alternativa della soft law

Un gruppo di 14 Stati Membri (Danimarca, Belgio, Repubblica Ceca, Finlandia, Francia, Estonia, Irlanda, Lettonia, Lussemburgo, Olanda, Polonia, Portogallo, Spagna e Svezia) ha sottoscritto un Position paper intitolato “Innovative and trustworthy AI: two sides of the same coin”, per fare alcune puntualizzazioni sulla definizione di Intelligenze Artificiali ad “alto rischio” e sollecitare la Commissione a adottare un approccio di soft law.

Innanzitutto, nonostante supportino l’adozione di un approccio basato sul rischio, gli Stati sottolineano come il concetto di “alto rischio” non debba essere determinato unicamente dal settore di applicazione dell’IA: è necessario, invece, utilizzare un metodo oggettivo e proporzionale che tenga conto sia dell’impatto potenziale della tecnologia che della probabilità del rischio, effettuando così una valutazione più precisa e dinamica anche a fronte dell’emergere di nuovi settori non ancora prevedibili nel momento in cui si scrive la normativa. Importante è anche evidenziare come la categoria delle IA ad “alto rischio” debba essere l’eccezione, non la regola.

Riprendendo il concetto di “ecosistema di fiducia”, la proposta dei 14 Stati è di adottare soluzioni di soft law come l’autoregolamentazione, pratiche volontarie e solidi processi di standardizzazione, il tutto da affiancare alla legislazione esistente che, di per sé, assicura che siano rispettati i livelli essenziali di sicurezza. L’obiettivo è evitare la messa a punto di barriere legali e requisiti onerosi, difficili da rispettare e, quindi, di ostacolo all’innovazione e al progresso scientifico del settore. L’adozione di meccanismi volontari favorisce la collaborazione dei vari soggetti coinvolti nella progettazione, diffusione e utilizzo dell’IA, creando appunto quel clima di fiducia auspicato dalla Commissione.

La posizione critica dell’EDPS

L’European Data Protection Supervisor ha espresso una posizione piuttosto critica con riguardo al progetto di regolamentare puntualmente l’Intelligenza Artificiale. Mentre lo scorso settembre aveva invitato a un approccio cauto, sottolineando come l’aumento nell’utilizzo di queste tecnologie non sia stato ancora affiancato da una valutazione accurata del loro impatto sugli individui e sulla società, un mese dopo, durante l’Annual Privacy Forum 2020, ha affermato che una legge volta a disciplinare specificamente l’IA non sarebbe la strada giusta da seguire; d’altronde, le questioni riguardanti la privacy sono già coperte dalle previsioni del GDPR.

Dello stesso avviso è l’Autorità Garante privacy portoghese, secondo la quale la tecnologia si muove a un ritmo troppo elevato perché la legge possa stare al passo con il suo cambiamento. Una posizione simile, del resto, a quella del Position paper dei 14 Stati.

Le conclusioni del Presidente del Consiglio dell’Unione Europea

Il tema dell’IA è stato affrontato anche dal Presidente del Consiglio dell’Unione Europea, che ha pubblicato delle conclusioni riguardanti l’applicazione della Carta dei diritti fondamentali nel contesto dell’Intelligenza Artificiale e del cambiamento digitale. Nel documento, il Presidente supporta la posizione del Libro Bianco della Commissione e sottolinea come qualsiasi approccio alla trasformazione digitale e all’IA debba essere “umano-centrico” e assicurare il rispetto dei diritti fondamentali. In particolare, elementi essenziali di qualsiasi regolamentazione della materia devono essere la trasparenza e l’intervento umano, così che possa essere assicurata la conformità dei dispositivi ai requisiti di legge. Il Presidente evidenzia inoltre l’importanza di creare una consapevolezza diffusa sull’utilizzo e i rischi delle nuove tecnologie.

Le proposte approvate dal Parlamento europeo

Il Parlamento europeo ha approvato tre raccomandazioni da presentare alla Commissione per orientare la stesura della proposta legislativa che verrà presentata il prossimo anno. Tre gli aspetti – per il momento – affrontati.

Con il primo testo approvato, viene richiesto alla Commissione di delineare un quadro giuridico improntato ai seguenti principi etici:

  • un’intelligenza artificiale antropocentrica e antropogenica;
  • sicurezza, trasparenza e responsabilità;
  • garanzie contro distorsioni e discriminazioni;
  • diritto di ricorso;
  • responsabilità sociale e ambientale e rispetto della privacy e protezione dei dati.

Viene inoltre precisato che per tutte le tecnologie classificate come ad “alto rischio” dovrà essere garantito in ogni caso l’intervento umano, in grado di correggere eventuali distorsioni nelle decisioni dell’IA.

Il secondo testo riguarda, invece, la responsabilità civile. In particolare, si propone di prevedere una responsabilità oggettiva in capo agli operatori di IA ad “alto rischio” per i danni provocati dalle loro tecnologie. In questo modo si intende fornire a tutti i soggetti coinvolti un quadro giuridico chiaro, favorendo lo sviluppo del settore e la creazione del clima di fiducia collettiva da tutti auspicato. Viene inoltre suggerito di imporre agli operatori di stipulare un’assicurazione, come è previsto per i veicoli a motore.

Infine, nel terzo testo approvato dal Parlamento viene trattata la questione della proprietà intellettuale delle opere create dalle Intelligenze Artificiali. Dato che l’IA non dovrebbe avere personalità giuridica, non le si potrebbe attribuire alcun diritto d’autore, che rimane prerogativa degli esseri umani.

Conclusioni

In questo contributo si è cercato di offrire una panoramica delle riflessioni più recenti sulla regolamentazione dell’Intelligenza Artificiale in ambito europeo. Come si è detto sopra, è attesa una proposta legislativa da parte della Commissione a inizio 2021. Resta dunque da vedere se le varie normative di settore già esistenti saranno integrate con elementi di soft law, come la creazione di meccanismi di certificazione su base volontaria, o se verrà adottato un approccio più forte e restrittivo, creando un documento legislativo ad hoc per l’IA che tenga conto delle varie proposte avanzate dal Parlamento europeo.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati