Il 18 aprile 2023 è stato ufficialmente inaugurato il Centro europeo per la trasparenza algoritmica (ECAT). Si tratta di un centro di ricerca che riunisce team interdisciplinari di data scientist, esperti di intelligenza artificiale, scienziati sociali ed esperti legali per analizzare il funzionamento dei software delle grandi piattaforme e motori di ricerca.
Questo perché la trasparenza è considerata “il” principio cardine della relazione uomo/strumento digitale nel nostro futuro.
Cos’è l’ECAT
Più esattamente l’iniziativa nasce nell’ambito del Reg. Ue 2022/2065 del 19 ottobre 2022 relativo a un mercato unico dei servizi digitali (Digital Service Act).
Come noto infatti il Digital Services Act impone alle grandi piattaforme on line e motori di ricerca requisiti di gestione del rischio finalizzato ad identificare, analizzare e mitigare un’ampia gamma di rischi sistemici delle stesse piattaforme e motori di ricerca che vanno dal modo in cui i contenuti illegali e la disinformazione possono essere amplificati attraverso i loro servizi, all’impatto sulla libertà di espressione o sulla libertà dei media.
Poiché poi i piani di mitigazione del rischio di piattaforme e motori di ricerca saranno soggetti a controllo e supervisione da parte della Commissione europea, quest’ultima necessita di competenze tecniche e scientifiche interne per svolgere tale controllo e verificare la conformità ai requisiti di gestione del rischio, mitigazione e trasparenza previsti dalla DSA. Quindi esecuzione di analisi approfondite delle relazioni sulla trasparenza e dell’autovalutazione del rischio.
Nasce quindi l’ECAT i cui Scienziati ed esperti coopereranno con i rappresentanti del settore, il mondo accademico e le organizzazioni della società civile per migliorare la nostra comprensione del funzionamento degli algoritmi: più esattamente analizzeranno la trasparenza, valuteranno i rischi e proporranno nuovi approcci trasparenti e migliori pratiche.
Tutto questo in ragione del fatto che la trasparenza è considerata uno dei principi cardine (forse “il” principio cardine) della relazione uomo/strumento digitale nel nostro futuro.
Se infatti l’uomo sarà messo nelle condizioni di capire il funzionamento del software, sarà in grado di mantenere la sua centralità e di tutelare la sua sfera giuridica.
Se invece non saremo in grado di imporre (anche in ragione della complessità informatica) il rispetto di tale principio, i rischi legati alla tecnologia (secondo le più oscure previsioni) potrebbero diventare realtà.
Questo è il motivo per cui al principio giuridico della trasparenza è data così ampia rilevanza, non solo nel DSA ma anche in altre discipline quali il GDPR e la Proposta di regolamento sulle AI.
E per questo motivo l’iniziativa ECAT è senza dubbio di estremo rilievo non solo per i soggetti che gestiscono piattaforme e motori di ricerca di grandi dimensioni (direttamente interessati in quanto sottoposti al DSA), ma anche per tutti coloro che già operano (o domani opereranno) nel settore software.
Il principio di trasparenza nel GDPR
Senza dubbio il testo fondamentale che delinea il principio di trasparenza ed il suo funzionamento è il GDPR.
Gli artt. 13, par. 2, lett. f) e 14, par. 2, lett. g) del GDPR, infatti, impongono al titolare del trattamento di rendere noto l’esistenza di un trattamento decisionale automatizzato, precisando che occorre specificare le «informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato»,
In sostanza si affermano due principi
- quello di conoscibilità: vale a dire come funziona il software
- quelli di comprensibilità: cioè quali sono gli effetti del funzionamento del software nella sfera giuridica dell’interessato.
Il successivo art. 15 stabilisce poi che l’interessato ha diritto di ottenere dal titolare del trattamento non solo la conferma che sia o meno in corso un trattamento di dati personali che lo riguardano ma anche nello specifico (comma 1 lett. h) “l’esistenza di un processo decisionale automatizzato, compresa la profilazione di cui all’articolo 22, paragrafi 1 e 4, e, almeno in tali casi, informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato. e in tal caso, di ottenere l’accesso ai dati personali e alle seguenti informazioni”.
Mentre poi l’art. 13 e 14 si riferiscono ad una fase preliminare all’inizio del trattamento, l’art. 15 riguarda una fase successiva a quella dell’inizio del trattamento: si potrà quindi chiedere – ad esempio – informazioni relative ai nuovi dati generati dall’algoritmo (magari per poter attivare il diritto di opposizione).
Il principio di trasparenza e pubblica amministrazione
La trasparenza non rileva poi solo nel mondo della protezione dei dati. La nostra giurisprudenza amministrativa ne ha già sancito la rilevanza nell’ambito del procedimento amministrativo.
Il caso più famoso è stato quello dell’utilizzo da parte del Ministero della Pubblica Istruzione di un software (di proprietà privata) per gestire l’enorme quantità di richieste rispetto alle relative sedi di destinazione degli insegnanti. Poiché all’esito delle decisioni del software molti insegnanti si videro attribuire sedi molto lontane dalle loro richieste, attraverso il sindacato si decise di chiedere l’accesso ex art. 22 della l. n. 241/1990 con l’obiettivo di conoscere le motivazioni (ossia il funzionamento dell’algoritmo) sottostanti le decisioni. Al diniego dell’accesso (secondo il Ministero algoritmo non poteva essere considerato un documento amministrativo né un atto amministrativo informatico ex legge 241/’90 ed il software utilizzato soggiaceva alla tutela prevista per le opere dell’ingegno) fu presentato ricorso al TAR.
Il Tar Lazio, sez. III con sentenza n. 3769 del 2017 ha invece ribaltato la decisione del Ministero, affermando che è del tutto lecito informatizzare il procedimento amministrativo attraverso un algoritmo, ma che questo non può cambiare le regole generali del procedimento amministrativo: in questo questo le logiche dell’algoritmo devono essere “accessibili” ex l. n. 241/1990.
Tale posizione è stata poi rafforzata dal TAR Lazio, Sez. III-bis n. 9224-9230 del 2018, in cui si legge: «gli istituti di partecipazione di trasparenza e di accesso, in sintesi, di relazione del privato con i pubblici poteri, non possono essere legittimamente mortificati e compressi soppiantando l’attività umana con quella impersonale, che poi non è attività ossia prodotto delle azioni dell’uomo, che può essere svolta in applicazione di regole o procedure informatiche o matematiche».
Trasparenza e AI
Ampio spazio, infine, alla trasparenza nell’ambito della nuova proposta di Regolamento sulla AI.
Qui assistiamo ad un vero e proprio salto: il principio di trasparenza non viene infatti posto alla base del mero trattamento dei dati personali (come nel GDPR), ma diventa cardine dell’intero funzionamento dell’AI.
Ed infatti il Considerando 47 prevede che la trasparenza diventi consapevolezza stabilendo che “per ovviare all’opacità che può rendere alcuni sistemi di IA incomprensibili o troppo complessi per le persone fisiche, è opportuno imporre un certo grado di trasparenza per i sistemi di IA ad alto rischio. Gli utenti dovrebbero poter interpretare gli output del sistema e utilizzarlo in modo adeguato. I sistemi di AI ad alto rischio dovrebbero pertanto essere corredati di documentazione e istruzioni per l’uso pertinenti, nonché di informazioni concise e chiare, anche in relazione, se del caso, ai possibili rischi in termini di diritti fondamentali e discriminazione”.
E poi, come diretta conseguenza, il successivo considerando 48 apre la strada ad una possibile “azione consapevole”, stabilendo
I sistemi di IA ad alto rischio dovrebbero essere progettati e sviluppati in modo da consentire alle persone fisiche di sorvegliarne il funzionamento. Il fornitore del sistema dovrebbe a tal fine individuare misure di sorveglianza umana adeguate prima dell’immissione del sistema sul mercato o della sua messa in servizio. Tali misure dovrebbero in particolare garantire, ove opportuno, che il sistema sia soggetto a vincoli operativi intrinseci che il sistema stesso non può annullare e che risponda all’operatore umano, e che le persone fisiche alle quali è stata affidata la sorveglianza umana dispongano delle competenze, della formazione e dell’autorità necessarie per svolgere tale ruolo.
La rilevanza giuridica (anche in termini di possibile responsabilità) appare evidente del tutto evidente nell’art. 13, titolato proprio “Trasparenza e fornitura di istruzioni agli utenti” che così stabilisce:
“1.I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l’output del sistema e utilizzarlo adeguatamente. Sono garantiti un tipo e un livello di trasparenza adeguati, che consentano di conseguire il rispetto dei pertinenti obblighi dell’utente e del fornitore di cui al capo 3 del presente titolo.
2.I sistemi di IA ad alto rischio sono accompagnati da istruzioni per l’uso in un formato digitale o non digitale appropriato, che comprendono informazioni concise, complete, corrette e chiare che siano pertinenti, accessibili e comprensibili per gli utenti.”
La norma poi prosegue dettagliando la tipologia di informazioni che debbono essere fornite all’utilizzatore; informazioni che diventano fondamentali se si tiene presente che la proposta di regolamento AI stabilisce (per la prima volta nel settore della disciplina da prodotto) una serie precisa di obblighi in capo agli utenti da cui può scaturire una conseguente diretta responsabilità per gli stessi (art. 29) .
Conclusioni
Appare chiaro dunque come il lavoro degli scienziati di ECAT è destinato a diventare fondamentale per progettare gli algoritmi, renderli spiegabili, e saper comunicare il loro funzionamento.
Fondamentale per la sostenibilità di un futuro digitale.