ia e libertà di identità

Tutela dell’identità, la privacy non basta più: serve l’etica by design



Indirizzo copiato

La progressiva innovazione delle PA attraverso l’uso di sistemi di IA e algoritmi richiede di introdurre l’etica come uno strumento fondamentale per garantire la progettazione di servizi che tutelino l’identità del cittadino. Senza etica by design non ci potrà essere vera innovazione nel contesto delle pubbliche amministrazioni

Pubblicato il 22 nov 2023

Simona Tiribelli

Direttrice per l’Etica dell’Intelligenza Artificiale nell’Institute for Technology and Global Health, Boston, USA, Visiting Scholar in AI Ethics presso la New York University, e Ricercatrice e Docente di Etica dell’Intelligenza Artificiale presso l’Università degli Studi di Macerata

Andrea Tironi

Project Manager – Digital Transformation



Investimenti digitalizzazione
(Immagine: https://pixabay.com/geralt)

La protezione dell’identità individuale è uno degli aspetti chiave nell’innovazione digitale delle PA. In questa trasformazione, la privacy, intesa come difesa dei dati personali, rappresenta uno strumento essenziale per progettare servizi affidabili che rispondano alle esigenze dei cittadini. Tuttavia, è lecito interrogarsi se la sola tutela dei dati personali, pur essendo fondamentale, sia sufficiente a garantire l’integrità dell’identità individuale nel futuro design e utilizzo dei servizi digitali pubblici.

La tutela dell’identità personale del cittadino al centro della trasformazione digitale

La trasformazione digitale ha sollecitato il dibattito, sia nazionale, sia a livello europeo[1], su come utilizzare in modo affidabile sistemi di IA (generativa) e algoritmi probabilistici in senso ampio nel mondo della PA: come beneficiare delle opportunità offerte da tali sistemi per ottimizzare le decisioni amministrative e migliorare efficienza, accesso e personalizzazione dei servizi, prevenendo, al contempo, i rischi per i diritti e le identità dei cittadini. La tutela dell’identità personale del cittadino rappresenta, infatti, un pilastro fondamentale su cui poggia il futuro dell’innovazione delle PA nell’era digitale.

Tuttavia, se fino ad oggi la tutela dell’identità è stata affrontata principalmente attraverso privacy e data protection (GDPR), l’era delle IA e l’imminente entrata dell’AI Act (cfr. valutazione di impatto sui diritti fondamentali), sembrano richiamare in modo più deciso il ruolo cruciale dell’etica e dell’etica by design per la progettazione di servizi digitali realmente capaci di promuovere e tutelare l’identità dei cittadini, oltre i dati e le informazioni che questi generano.[2]

Oltre la privacy come tutela dell’identità personale

Il tema della privacy (informazionale) è da tempo fondamentale nel dibattito pubblico e scientifico, in particolare riguardo alla protezione dell’identità personale nell’era digitale. Numerose fonti contemporanee analizzano la relazione tra privacy e tutela dell’identità personale, alla luce della capacità della prima di essere strumento teorico e pratico adeguato per la tutela della seconda. Questo poiché la concezione di identità personale negli studi sul digitale ha progressivamente assunto una connotazione informazionale.

Il processo di datificazione quasi totalizzante del reale, innescato dalla pervasività delle ICTs digitali, ha dato origine a una concezione principalmente epistemologica del sé, secondo cui, se tutto è digitalizzabile o datificabile, noi siamo i nostri dati e le nostre informazioni, trasformandoci di fatto in soggettività datificabili. Di conseguenza, la privacy informazionale, nella sua duplice accezione positiva (“diritto al controllo sui dati e sulle informazioni che ci riguardano”) e negativa (“diritto di privare ad altri l’accesso ai nostri dati e informazioni”) è divenuta lo strumento ritenuto più adeguato, insieme alla data protection, per la tutela dell’identità personale. Ci chiediamo qui però se la privacy da sola, seppur centrale, sia ancora sufficiente per la tutela del cittadino, nell’era digitale e degli algoritmi.

L’uso pervasivo di algoritmi probabilistici e delle loro capacità di processare enormi quantità di dati per scoprire modelli e correlazioni di valore su individui, gruppi e popolazione nel suo insieme fa emergere una serie di sfide e limiti del concetto di privacy stesso come tutela dell’identità, nonché, a sua volta, della concezione di identità come informazionale che sembra esserne alla base.

La possibilità degli algoritmi di inferire da dati potenzialmente innocui – quando processati in combinazione con altri dati passati dell’individuo (content based filtering) e/o di altri utenti categorizzati, spesso, come “simili” (si pensi alle tecniche di collaborative filtering) – dati e informazioni sensibili o, persino, intimi sull’individuo sfuma la distinzione tra dati personali e non personali, rendendo ogni dato, in potenza, importante.

Quale valore etico è in gioco nel processo di formazione identitaria

Se, dunque, noi siamo in nostri dati, e ogni dato può diventare, a posteriori (a seguito di processazione algoritmica), importante (o sensibile), e rilevata l’impossibilità di controllare ogni dato e informazione che produciamo, quali dati e informazioni che ci riguardano la privacy è chiamata a tutelare per salvaguardare l’identità e, soprattutto, perché?

L’impasse che sembra formarsi suggerisce la necessità di comprendere meglio quale valore etico è in gioco nel processo di formazione identitaria; il valore, cioè, che giustifica la privacy come tutela dell’identità personale, ovvero come tutela delle persone come uniche, singolari, specifiche o particolari, eguali ma irriducibili le une alle altre, che siamo. Un’analisi di questo valore chiama in causa l’etica e la filosofia morale; un’analisi di come questo valore possa essere violato, promosso, e/o incorporato nei servizi digitali basati su algoritmi chiama in causa l’etica dell’intelligenza artificiale. La tutela dell’identità, infatti, non è una sfida di esclusivo appannaggio giuridico: l’etica svolge un ruolo fondamentale e ci consente di comprendere che non tutte le sfide all’identità possono essere ricomprese negli studi sulla privacy e/o affrontabili attraverso la data protection e che, soprattutto, l’identità personale non si può ridurre solo all’unica dimensione dei nostri dati e delle nostre informazioni.

Intelligenza artificiale e libertà di identità

Nonostante l’identità sia un tema particolarmente complesso, affrontarla da una prospettiva specificatamente etica richiede di rispondere a una domanda definita di “caratterizzazione”: quali elementi e aspetti ci caratterizzano come le persone specifiche, particolari e/o singolari che siamo? Possiamo rispondere a questa domanda da un punto di vista etico, analizzando l’identità come processo aperto che trova nella libertà il suo valore fondamentale; nello specifico, la libertà di scegliere e agire secondo ciò che per noi conta e/o è prioritario: valori, affetti, idee di bene e giusto, legami di appartenenza, impegni condivisi, progetti personali. Questi aspetti caratterizzano chi siamo come persone particolari, ciò sulla base di cui compiamo certe scelte rispetto ad altre; sulla base di cui esprimiamo e formiamo chi vogliamo diventare.

Le condizioni necessarie all’esercizio di questa libertà sono dunque cruciali per garantire la possibilità di formarci in modo genuino e (co)autoriale. In breve, almeno due di esse emergono nel dibattito filosofico-morale in materia: la disponibilità di opzioni alternative (moralmente eterogenee), che ci consentono una pluralità (informazionale, socio-relazionale e morale) tale da consentirci di sfidare le nostre idee e vagliare se sono ottimali o necessitano di essere riviste alla luce di altre per noi migliori – cruciale per sviluppare identità genuine; e l’autonomia, cioè la possibilità di essere (co-)autori delle nostre identità, avallando criticamente come motivo ciò che orienta le nostre scelte e azioni. Queste condizioni, e, con esse, la nostra libertà di identità, possono essere tuttavia messe in discussione.

Ciò può accadere quando algoritmi probabilistici alla base della maggior parte dei servizi di cui fruiamo, apprendendo come raggiungere un certo obiettivo, categorizzano l’utenza in gruppi di “simili” presentando ambienti con contenuti (opzioni: contenuti digitali, opportunità professionali, news, ecc.) a ridotta esposizione epistemica e relazionale (a informazioni e relazioni potenzialmente significative), che rinforzano o sfruttano bias cognitivi (es. bias di conferma), invece che compensarli, erodendo capacità critica e aumentando i costi di sviluppare idee e abbracciare opportunità alternative a quelle di partenza; può accadere altresì quando la personalizzazione di determinati servizi esclude informazioni e, di conseguenza, opportunità potenzialmente rilevanti, a causa di una profilazione de-individualizzata, imprecisa, o a volte persino, come mostrato, discriminatoria. Sfide simili sono sollevate per l’autonomia umana quando, ad esempio, raccomandazioni algoritmiche di contenuti personalizzati si basano su profili costruiti su di noi attraverso la scoperta tramite processazione algoritmica di informazioni potenzialmente sensibili, nonostante non risultino etichettate come tali, capaci di innescare emozioni e comportamenti predefiniti, bypassando la riflessione critica, verso la realizzazione di obiettivi stabiliti da terzi.

Criteri etici di tutela dell’identità

Le sfide sopra accennate richiedono una riflessione specifica su quali criteri etici valorizzare e rendere operativi by design nei servizi digitali pubblici al fine di tutelare le condizioni necessarie per la formazione identitaria nell’era degli algoritmi. Se l’interferenza algoritmica non sembra essere eliminabile tout court (né auspicabile: come gestiremmo l’informational overload senza profilazione e filtri algoritmici?), se si vuole beneficiare delle opportunità di tali sistemi, appare necessario distinguere quali interferenze o azioni di influenza algoritmica siano ammissibili (dopo adeguata regolamentazione), e quali no, perché ingiuste e illegittime.

In altre parole, si tratterà di implementare una profilazione e personalizzazione algoritmiche che possano definirsi etiche.

Ciò richiederà innanzitutto lo sviluppo di profili che siano accurati e, dunque, prevenire azioni de-individualizzanti potenzialmente vulnerabili a correlazioni difettose e discriminatorie. Criteri fondamentali appaiono poi quelli di pluralismo (criterio di eterogeneità) soprattutto per quei servizi che personalizzano l’accesso del cittadino alle informazioni; di intelligibilità (garantire all’utente la comprensione di come è profilato al fine di consentire conoscenza, consapevolezza e capacità di azione e contestazione) e confidenzialità (se da dati potenzialmente innocui è possibile derivare informazione sensibile sui cittadini, questi dovrebbero essere informati e avere la possibilità di chiederne rimozione e divieto d’uso).

Conclusioni

La progressiva innovazione delle PA attraverso l’uso di sistemi di IA e algoritmi richiede di introdurre l’etica come uno strumento fondamentale per garantire la progettazione di servizi che tutelino l’identità del cittadino. L’identità (phygital) del cittadino sarà, infatti, sempre più esposta e, di conseguenza, influenzata dalla progettazione su base algoritmica – o design algoritmico – dei servizi privati e pubblici di cui farà uso; per chi scrive ciò rende fondamentale, per un’innovazione delle PA davvero affidabile, la tempestiva ripresa di alcune azioni di etica by design parzialmente accennate, in precedenza, nella Strategia nazionale per l’innovazione tecnologica e la digitalizzazione del paese 2025.

Note


[1]https://www.consilium.europa.eu/media/63818/art-paper-chatgpt-in-the-public-sector-overhyped-or-overlooked-24-april-2023_ext.pdf. Si consideri, inoltre, https://docs.italia.it/italia/design/lg-design-servizi-web/it/versione-corrente/requisiti.html#affidabilita-trasparenza-e-sicurezza.

[2] Per un maggiore dettaglio dei temi al centro di questo articolo, si veda S. Tiribelli, Identità personale e algoritmi. Una questione di filosofia morale, Carocci editore, Roma 2023.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2