intelligenza artificiale

IA: supervisione e governance per proteggerci dagli usi impropri



Indirizzo copiato

L’Intelligenza Artificiale (IA) rivoluziona la vita quotidiana ma presenta rischi significativi per la privacy, la protezione dei dati e i diritti economici. Recenti regolamentazioni europee mirano a garantire trasparenza, sicurezza e non discriminazione. L’uso improprio dell’IA e la mancanza di etica sollevano preoccupazioni: servono supervisione e governance adeguate

Pubblicato il 6 giu 2024

Jordi Ferrer

professore di Diritto Digitale presso EAE Business School e socio direttore di Cyberlaw Consulting



shutterstock_2113136912.jpg

L’intelligenza artificiale (IA) è l’ultimo esempio di come la tecnologia abbia trasformato in modo dirompente la vita quotidiana delle persone e delle imprese.

Per quanto questa tecnologia promuova vere e proprie rivoluzioni, l’IA presenta anche alcune minacce e rischi per gli individui e per la protezione dei diritti fondamentali e dei diritti economici.

Impatto dell’IA sulla privacy e protezione dei dati personali

L’uso improprio dell’IA si ripercuoterà chiaramente sulla privacy e sulla protezione dei dati personali. Sebbene poche settimane fa sia stato raggiunto un accordo a livello europeo sull’AI Act per regolamentare questa tecnologia, siamo già di fronte a seri rischi per la protezione della privacy degli utenti, agli obblighi che devono essere assunti nello sviluppo di soluzioni di IA e ai rischi per i diritti degli individui.

Questioni come l’impiego di dati biometrici e la tecnologia di riconoscimento facciale, insieme alla necessità di trasparenza e garanzie informative, costituiscono una rilevante prova per l’Intelligenza Artificiale. Anche le questioni emergenti riguardanti l’uso delle immagini delle persone, specialmente dei minori, sono riconducibili alla protezione dei dati, un ambito in cui le agenzie nazionali competenti stanno attivamente indagando.

Diritti legati alla proprietà intellettuale e conflitti con i diritti d’autore nell’IA

Un altro impatto importante riguarda i diritti legati alla proprietà intellettuale e il conflitto con i diritti d’autore, in quanto disponiamo di quadri normativi per la protezione della proprietà intellettuale risalenti al XX secolo. In questo caso, le varie soluzioni di IA presenti sul mercato (molte delle quali gratuite) generano immagini o contenuti audiovisivi che non sono protetti dalle norme sul copyright, che tutelano solo le creazioni umane. D’altra parte, che dire di ChatGPT e della possibile violazione dei diritti degli autori da cui lo strumento attinge.

Minacce alla cybersicurezza e commissione di reati attraverso l’uso dell’IA

Approfondendo ancora nei rischi che l’IA può comportare, possiamo citare le minacce legate alla cybersicurezza o alla commissione di reati attraverso l’uso dell’IA.

Nella maggior parte degli atti che possono essere criminali e commessi con l’uso di tecnologie, possono essere applicate alcune delle fattispecie penali previste dal codice penale vigente, ma a volte possono non essere punibili penalmente.

Ciò che talvolta accade, a causa del cosiddetto “principio di tipicità“, è che il legislatore debba stabilire una sorta di specificazione in una disposizione del codice penale per una maggiore certezza del diritto. Cito come esempio i casi noti come “revenge porn”, che hanno portato all’introduzione di una specifica fattispecie di reato perché i tribunali hanno emesso sentenze contraddittorie.

Ogni fatto specifico deve essere analizzato, ma ad esempio la creazione, il possesso e la diffusione di immagini realistiche di pornografia infantile rientrano nella formulazione del codice penale che criminalizza “immagini realistiche di un minore impegnato in comportamenti sessualmente espliciti o immagini realistiche degli organi sessuali di un minore, principalmente a scopo sessuale”.

Questa tecnologia rappresenta una rivoluzione di portata maggiore rispetto alle passate rivoluzioni industriali.

Qualsiasi rivoluzione, a suo tempo le rivoluzioni industriali e ora quelle associate alle tecnologie digitali, comporta il rischio di possibili abusi. Un esempio è Alfred Nobel, inventore della dinamite, che ha avuto usi notevoli e dannosi per l’umanità. A mio avviso, la tecnologia è “neutra” e il problema nasce dall’uso che l’uomo può farne.

L’importanza della moralità e dell’etica nell’uso dell’IA

In assenza di un quadro normativo, dobbiamo affidarci al comportamento morale ed etico delle persone che progettano, producono e utilizzano l’IA.

Certamente, alcuni problemi come l’inganno, la distorsione dei dati o la mancanza di sicurezza sono noti come rischi nel comportamento dei sistemi di IA. Se non seguiamo i principi etici di base per il funzionamento del sistema, i rischi possono concretizzarsi, come abbiamo visto nei recenti fatti di cronaca.

La necessità di controlli, governance e supervisione sull’IA

È indubbiamente necessario stabilire controlli, governance e supervisione per un mercato che si muove a una velocità incredibile. In questo senso, paesi come la Spagna hanno già avviato la creazione di un’Agenzia Spagnola per la Supervisione dell’Intelligenza Artificiale (AESIA), che avrà il compito di vigilare sul rispetto della normativa sull’intelligenza artificiale.

Il primo quadro normativo globale: il regolamento europeo sull’IA

Indubbiamente, era ed è necessario stabilire la regolamentazione dell’IA. Il Regolamento europeo che disciplina i sistemi di Intelligenza Artificiale è maturato negli ultimi 4 anni e sarà presto pubblicato sulla Gazzetta Ufficiale dell’Unione Europea con una graduale entrata in applicazione.

Obiettivi del regolamento Ue

Il regolamento mira a migliorare il funzionamento del mercato interno dell’IA in Europa e a promuovere una tecnologia incentrata sull’uomo e degna di fiducia, garantendo un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali.

Stabilisce una classificazione dei sistemi ad alto rischio e delle pratiche di IA vietate.

I principi generali comprendono:

  • Sistemi sicuri: il principio di precauzione deve essere applicato alle tecnologie dirompenti come l’IA, che possono essere vantaggiose, ma i rischi associati devono essere affrontati.
  • Garantire la trasparenza: la trasparenza consente di correggere le pratiche inadeguate, soprattutto nei processi di raccolta dei dati e di formazione del sistema.
  • Tracciabilità del sistema: deve essere garantita la comprensione e la conoscenza dell’evoluzione del sistema, in modo che il suo funzionamento possa essere tracciato e indagato se necessario.
  • Garantire la non discriminazione: i sistemi devono evitare pregiudizi ingiusti, poiché potrebbero avere molteplici implicazioni negative, dall’emarginazione di gruppi vulnerabili e razziali all’esacerbazione di pregiudizi e discriminazioni.
  • Supervisione umana: l’automazione end-to-end non è accettabile perché può portare a risultati dannosi e la supervisione umana deve essere applicabile a un certo punto del processo.

Se il regolamento raggiungerà questi obiettivi, farà molta strada verso un’IA che si concili con i diritti delle persone.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3