La protezione dell’identità individuale è uno degli aspetti chiave nell’innovazione digitale delle PA. In questa trasformazione, la privacy, intesa come difesa dei dati personali, rappresenta uno strumento essenziale per progettare servizi affidabili che rispondano alle esigenze dei cittadini. Tuttavia, è lecito interrogarsi se la sola tutela dei dati personali, pur essendo fondamentale, sia sufficiente a garantire l’integrità dell’identità individuale nel futuro design e utilizzo dei servizi digitali pubblici.
La tutela dell’identità personale del cittadino al centro della trasformazione digitale
La trasformazione digitale ha sollecitato il dibattito, sia nazionale, sia a livello europeo[1], su come utilizzare in modo affidabile sistemi di IA (generativa) e algoritmi probabilistici in senso ampio nel mondo della PA: come beneficiare delle opportunità offerte da tali sistemi per ottimizzare le decisioni amministrative e migliorare efficienza, accesso e personalizzazione dei servizi, prevenendo, al contempo, i rischi per i diritti e le identità dei cittadini. La tutela dell’identità personale del cittadino rappresenta, infatti, un pilastro fondamentale su cui poggia il futuro dell’innovazione delle PA nell’era digitale.
Tuttavia, se fino ad oggi la tutela dell’identità è stata affrontata principalmente attraverso privacy e data protection (GDPR), l’era delle IA e l’imminente entrata dell’AI Act (cfr. valutazione di impatto sui diritti fondamentali), sembrano richiamare in modo più deciso il ruolo cruciale dell’etica e dell’etica by design per la progettazione di servizi digitali realmente capaci di promuovere e tutelare l’identità dei cittadini, oltre i dati e le informazioni che questi generano.[2]
Oltre la privacy come tutela dell’identità personale
Il tema della privacy (informazionale) è da tempo fondamentale nel dibattito pubblico e scientifico, in particolare riguardo alla protezione dell’identità personale nell’era digitale. Numerose fonti contemporanee analizzano la relazione tra privacy e tutela dell’identità personale, alla luce della capacità della prima di essere strumento teorico e pratico adeguato per la tutela della seconda. Questo poiché la concezione di identità personale negli studi sul digitale ha progressivamente assunto una connotazione informazionale.
Il processo di datificazione quasi totalizzante del reale, innescato dalla pervasività delle ICTs digitali, ha dato origine a una concezione principalmente epistemologica del sé, secondo cui, se tutto è digitalizzabile o datificabile, noi siamo i nostri dati e le nostre informazioni, trasformandoci di fatto in soggettività datificabili. Di conseguenza, la privacy informazionale, nella sua duplice accezione positiva (“diritto al controllo sui dati e sulle informazioni che ci riguardano”) e negativa (“diritto di privare ad altri l’accesso ai nostri dati e informazioni”) è divenuta lo strumento ritenuto più adeguato, insieme alla data protection, per la tutela dell’identità personale. Ci chiediamo qui però se la privacy da sola, seppur centrale, sia ancora sufficiente per la tutela del cittadino, nell’era digitale e degli algoritmi.
L’uso pervasivo di algoritmi probabilistici e delle loro capacità di processare enormi quantità di dati per scoprire modelli e correlazioni di valore su individui, gruppi e popolazione nel suo insieme fa emergere una serie di sfide e limiti del concetto di privacy stesso come tutela dell’identità, nonché, a sua volta, della concezione di identità come informazionale che sembra esserne alla base.
La possibilità degli algoritmi di inferire da dati potenzialmente innocui – quando processati in combinazione con altri dati passati dell’individuo (content based filtering) e/o di altri utenti categorizzati, spesso, come “simili” (si pensi alle tecniche di collaborative filtering) – dati e informazioni sensibili o, persino, intimi sull’individuo sfuma la distinzione tra dati personali e non personali, rendendo ogni dato, in potenza, importante.
Quale valore etico è in gioco nel processo di formazione identitaria
Se, dunque, noi siamo in nostri dati, e ogni dato può diventare, a posteriori (a seguito di processazione algoritmica), importante (o sensibile), e rilevata l’impossibilità di controllare ogni dato e informazione che produciamo, quali dati e informazioni che ci riguardano la privacy è chiamata a tutelare per salvaguardare l’identità e, soprattutto, perché?
L’impasse che sembra formarsi suggerisce la necessità di comprendere meglio quale valore etico è in gioco nel processo di formazione identitaria; il valore, cioè, che giustifica la privacy come tutela dell’identità personale, ovvero come tutela delle persone come uniche, singolari, specifiche o particolari, eguali ma irriducibili le une alle altre, che siamo. Un’analisi di questo valore chiama in causa l’etica e la filosofia morale; un’analisi di come questo valore possa essere violato, promosso, e/o incorporato nei servizi digitali basati su algoritmi chiama in causa l’etica dell’intelligenza artificiale. La tutela dell’identità, infatti, non è una sfida di esclusivo appannaggio giuridico: l’etica svolge un ruolo fondamentale e ci consente di comprendere che non tutte le sfide all’identità possono essere ricomprese negli studi sulla privacy e/o affrontabili attraverso la data protection e che, soprattutto, l’identità personale non si può ridurre solo all’unica dimensione dei nostri dati e delle nostre informazioni.
Intelligenza artificiale e libertà di identità
Nonostante l’identità sia un tema particolarmente complesso, affrontarla da una prospettiva specificatamente etica richiede di rispondere a una domanda definita di “caratterizzazione”: quali elementi e aspetti ci caratterizzano come le persone specifiche, particolari e/o singolari che siamo? Possiamo rispondere a questa domanda da un punto di vista etico, analizzando l’identità come processo aperto che trova nella libertà il suo valore fondamentale; nello specifico, la libertà di scegliere e agire secondo ciò che per noi conta e/o è prioritario: valori, affetti, idee di bene e giusto, legami di appartenenza, impegni condivisi, progetti personali. Questi aspetti caratterizzano chi siamo come persone particolari, ciò sulla base di cui compiamo certe scelte rispetto ad altre; sulla base di cui esprimiamo e formiamo chi vogliamo diventare.
Le condizioni necessarie all’esercizio di questa libertà sono dunque cruciali per garantire la possibilità di formarci in modo genuino e (co)autoriale. In breve, almeno due di esse emergono nel dibattito filosofico-morale in materia: la disponibilità di opzioni alternative (moralmente eterogenee), che ci consentono una pluralità (informazionale, socio-relazionale e morale) tale da consentirci di sfidare le nostre idee e vagliare se sono ottimali o necessitano di essere riviste alla luce di altre per noi migliori – cruciale per sviluppare identità genuine; e l’autonomia, cioè la possibilità di essere (co-)autori delle nostre identità, avallando criticamente come motivo ciò che orienta le nostre scelte e azioni. Queste condizioni, e, con esse, la nostra libertà di identità, possono essere tuttavia messe in discussione.
Ciò può accadere quando algoritmi probabilistici alla base della maggior parte dei servizi di cui fruiamo, apprendendo come raggiungere un certo obiettivo, categorizzano l’utenza in gruppi di “simili” presentando ambienti con contenuti (opzioni: contenuti digitali, opportunità professionali, news, ecc.) a ridotta esposizione epistemica e relazionale (a informazioni e relazioni potenzialmente significative), che rinforzano o sfruttano bias cognitivi (es. bias di conferma), invece che compensarli, erodendo capacità critica e aumentando i costi di sviluppare idee e abbracciare opportunità alternative a quelle di partenza; può accadere altresì quando la personalizzazione di determinati servizi esclude informazioni e, di conseguenza, opportunità potenzialmente rilevanti, a causa di una profilazione de-individualizzata, imprecisa, o a volte persino, come mostrato, discriminatoria. Sfide simili sono sollevate per l’autonomia umana quando, ad esempio, raccomandazioni algoritmiche di contenuti personalizzati si basano su profili costruiti su di noi attraverso la scoperta tramite processazione algoritmica di informazioni potenzialmente sensibili, nonostante non risultino etichettate come tali, capaci di innescare emozioni e comportamenti predefiniti, bypassando la riflessione critica, verso la realizzazione di obiettivi stabiliti da terzi.
Criteri etici di tutela dell’identità
Le sfide sopra accennate richiedono una riflessione specifica su quali criteri etici valorizzare e rendere operativi by design nei servizi digitali pubblici al fine di tutelare le condizioni necessarie per la formazione identitaria nell’era degli algoritmi. Se l’interferenza algoritmica non sembra essere eliminabile tout court (né auspicabile: come gestiremmo l’informational overload senza profilazione e filtri algoritmici?), se si vuole beneficiare delle opportunità di tali sistemi, appare necessario distinguere quali interferenze o azioni di influenza algoritmica siano ammissibili (dopo adeguata regolamentazione), e quali no, perché ingiuste e illegittime.
In altre parole, si tratterà di implementare una profilazione e personalizzazione algoritmiche che possano definirsi etiche.
Ciò richiederà innanzitutto lo sviluppo di profili che siano accurati e, dunque, prevenire azioni de-individualizzanti potenzialmente vulnerabili a correlazioni difettose e discriminatorie. Criteri fondamentali appaiono poi quelli di pluralismo (criterio di eterogeneità) soprattutto per quei servizi che personalizzano l’accesso del cittadino alle informazioni; di intelligibilità (garantire all’utente la comprensione di come è profilato al fine di consentire conoscenza, consapevolezza e capacità di azione e contestazione) e confidenzialità (se da dati potenzialmente innocui è possibile derivare informazione sensibile sui cittadini, questi dovrebbero essere informati e avere la possibilità di chiederne rimozione e divieto d’uso).
Conclusioni
La progressiva innovazione delle PA attraverso l’uso di sistemi di IA e algoritmi richiede di introdurre l’etica come uno strumento fondamentale per garantire la progettazione di servizi che tutelino l’identità del cittadino. L’identità (phygital) del cittadino sarà, infatti, sempre più esposta e, di conseguenza, influenzata dalla progettazione su base algoritmica – o design algoritmico – dei servizi privati e pubblici di cui farà uso; per chi scrive ciò rende fondamentale, per un’innovazione delle PA davvero affidabile, la tempestiva ripresa di alcune azioni di etica by design parzialmente accennate, in precedenza, nella Strategia nazionale per l’innovazione tecnologica e la digitalizzazione del paese 2025.
Note
[1]https://www.consilium.europa.eu/media/63818/art-paper-chatgpt-in-the-public-sector-overhyped-or-overlooked-24-april-2023_ext.pdf. Si consideri, inoltre, https://docs.italia.it/italia/design/lg-design-servizi-web/it/versione-corrente/requisiti.html#affidabilita-trasparenza-e-sicurezza.
[2] Per un maggiore dettaglio dei temi al centro di questo articolo, si veda S. Tiribelli, Identità personale e algoritmi. Una questione di filosofia morale, Carocci editore, Roma 2023.