Tra le molteplici sfide poste dall’Intelligenza Artificiale, una delle più rilevanti riguarda la trasparenza, l’interpretabilità e la spiegabilità delle decisioni prese da sistemi di questo tipo. Di norma, infatti, per le decisioni che influiscono in maniera significativa sulle condizioni di vita delle persone, e in generale sul benessere sociale e ambientale, ci si aspetta che la loro motivazione possa essere ragionevolmente compresa.
Da questo punto di vista, i sistemi di IA agiscono spesso sulla base di algoritmi e logiche che risultano poco chiari – se non difficili – da comprendere per gli esseri umani. Da ciò, deriva un effetto black-box con due possibili effetti: da un lato, una scarsa fiducia nell’utilizzarsi ai sistemi di IA, dall’altra un’eccessiva dipendenza dagli stessi vista la rapidità con cui decisioni complesse vengono prese. In ogni caso, se non controllate, le conseguenze che scaturiscono da questi scenari opposti possono risultare estremamente dannose per gli individui[1].
Per questa ragione, è essenziale di sviluppare sistemi di IA trasparenti e le cui decisioni siano interpretabili e spiegabili, non solo per risultare conformi rispetto ai principali regolamenti – come l’AI Act – che regolano l’IA, ma anche per aumentare la fiducia di mercati, enti pubblici e privati nei confronti delle innovazioni apportate dall’IA stessa.
Trasparenza, spiegabilità e interpretabilità secondo l’AI Act
L’AI Act si è prefissato l’obiettivo di fornire un quadro normativo univoco e preciso per regolare l’utilizzo dei sistemi di IA in modo da renderlo etico, sicuro e affidabile. Tra le predisposizioni previste, introduce obblighi di trasparenza applicabili per le applicazioni e i sistemi che interagiscono in modo diretto con gli esseri umani (per esempio chatbot), generano o manipolano contenuti (“deep fake”) e sono utilizzate per rilevare le emozioni o determinare l’associazione a categorie (sociali) sulla base di dati biometrici. Questi requisiti di trasparenza si applicano trasversalmente a tutte le applicazioni che rispettano tali criteri, anche se presentano diversi livelli di rischio tra quelli indicati nell’AI Act stesso (rischio minimo o assente, livello di rischio per requisiti di trasparenza, rischio alto, rischio inaccettabile).
A queste predisposizione si aggiunge l’articolo 13 dell’AI Act, il quale si concentra sugli aspetti di trasparenza e sulle informazioni da procurare dai fornitori di sistemi di IA definiti ad alto rischio. In questo caso, per trasparenza si intende il fatto che i sistemi ad alto rischio vengano progettati e sviluppati in modo tale da rendere i fornitori in grado di interpretare l’output del sistema e usarlo in maniera appropriata. Maggiore la rischiosità del sistema, maggiore sarà la necessità di assicurare il rispetto dei requisiti di trasparenza in questione.
L’AI Act, dunque, stabilisce norme ad hoc per quanto riguarda tre concetti fondamentali: trasparenza, interpretabilità e spiegabilità. Secondo il regolamento, sistemi di IA trasparenti consentono agli stakeholder di validare i processi decisionali degli stessi, rendendoli altresì capaci di individuare eventuali bias che possano impedire al sistema di rimanere conforme rispetto a norme legali e requisiti etici. Allo stesso modo, sistemi di IA interpretabili consentono agli esseri umani non solo di comprendere i risultati dei processi decisionali, ma anche anticipare e, di conseguenza, prevenire potenziali errori. In conclusione, per quanto riguarda la spiegabilità, la stessa risulta critica nel momento in cui il sistema di IA genera un impatto significativo – e rischioso – per gli stakeholder che si confrontano con lo stesso. In questo senso, la spiegabilità supporta gli stakeholder, includendo user ed enti regolatori, a comprendere meglio le decisioni prese dal sistema stesso.
Appare quindi chiaro che i principi sopracitati – trasparenza, spiegabilità ed interpretabilità – siano correlati tra loro, essendo spiegabilità ed interpretabilità delle decisioni prese dai sistemi di IA condizioni senza le quali non può essere raggiunta totale trasparenza dei sistemi medesimi.
Se però i concetti di trasparenza, interpretabilità e spiegabilità sono citati e richiesti come requisiti, il quadro normativo non ne fornisce una definizione univoca e chiara. Per esempio, l’AI Act non prevede specifiche predisposizioni in merito alla spiegabilità, alla quale si fa invece riferimento solo come componente – insieme alla tracciabilità – che contribuisce a garantire trasparenza dei sistemi di IA, come anticipato in precedenza.
Una possibile definizione di Explainable AI (XAI) è stata invece avanzata dall’European Data Protection Supervisor che la declina come la capacità dei sistemi di IA di fornire spiegazioni chiare e comprensibili riguardo alle loro azioni e decisioni. L’obiettivo principale perseguito dall’Explainable AI è di rendere il comportamento di questi sistemi comprensibile per gli umani, fornendo indicazioni chiare e precise sui meccanismi alla base dei loro processi decisionali[2].
Pertanto, è opportuno sottolineare la necessità urgente di avere, a livello regolatorio, definizioni allineate tra loro dei tre principi. Una nostra interpretazione del concetto più ampio di trasparenza è offerta di seguito.
La trasparenza nell’Intelligenza Artificiale
La trasparenza si afferma come principio fondamentale per un’Intelligenza Artificiale etica, posizionandosi al fianco di interpretabilità e spiegabilità. Essa rappresenta probabilmente l’aspetto più immediato e meno complesso da comprendere, rivestendo un ruolo decisivo nella percezione e nell’interazione degli utenti con i sistemi di IA.
La trasparenza costituisce il pilastro che assicura agli utenti la consapevolezza di interagire con sistemi di IA, indipendentemente dalla complessità, da semplici chatbot fino ad avanzati sistemi di analisi predittiva. Il riconoscimento dell’intervento dell’IA è fondamentale per instaurare un rapporto di fiducia con gli utenti. Tuttavia, la trasparenza implica anche la chiarezza riguardo alle fonti dei dati impiegati dall’IA, le modalità del loro utilizzo, le relative questioni di copyright ed il processo decisionale sottostante.
Oltre la divulgazione: livelli di trasparenza
Anche se la trasparenza può apparire meno articolata rispetto all’interpretabilità o alla spiegabilità, il livello di trasparenza necessario varia significativamente a seconda del contesto di impiego dell’IA. Vi sono quindi diversi aspetti da tenere in considerazione:
- Decisioni di rilevante importanza: nei casi in cui i sistemi di IA siano responsabili di decisioni di grande impatto, come nei settori del credito finanziario o della diagnostica medica, è essenziale che le persone siano informate non solo dell’utilizzo dell’IA ma anche dei processi decisionali sottostanti. Risulta fondamentale comunicare gli sforzi compiuti per garantire un’equità di trattamento e prevenire qualsiasi forma di discriminazione.
- Trasparenza nell’uso dei dati: per i sistemi di IA addestrati su ampi set di dati, è vitale garantire la trasparenza relativamente all’origine dei dati e alle strategie adottate per neutralizzare i bias. Ciò assicura che le raccomandazioni o le decisioni dell’IA siano il più possibile giuste e non discriminatorie.
- Adattabilità della trasparenza al contesto: la necessità e il livello della trasparenza variano in base all’applicazione specifica dell’IA. Per esempio, nell’ambito sanitario, l’IA potrebbe dover porre enfasi sulla protezione della privacy dei dati, mentre in sistemi come i veicoli autonomi l’accento potrebbe essere posto sulla spiegazione delle scelte relative alla sicurezza.
- Adattabilità della trasparenza al profilo degli interlocutori: la complessità delle spiegazioni fornite deve essere calibrata in base al tipo di interlocutore, affinché ogni spiegazione sia realmente comprensibile e funzionale, assicurandosi che siano accessibili a chiunque indipendentemente dal livello di competenza tecnica. Ad esempio, il livello di dettaglio e il linguaggio usato per comunicare le informazioni che necessita un cittadino sul chatbot sviluppato dal comune di appartenenza sono notevolmente diverse da quelle che richiede un auditor di un’autorità di controllo. A questo si aggiunge anche la mancanza di una definizione chiara e univoca di “spiegazione comprensibile per l’interlocutore”, ovvero di fattori e strumenti di misurazione di quanto una spiegazione sia effettivamente ritenuta comprensibile da chi la riceve.
Distinguere tra interpretabilità e spiegabilità
Come già sottolineato, interpretabilità e spiegabilità sono due concetti spesso associati, ma che servono scopi diversi e rispondono a esigenze differenti all’interno dei sistemi di IA. Quali sono le differenze e la loro importanza nel rendere i sistemi di IA più comprensibili e responsabili?
Interpretabilità
L’ interpretabilità si riferisce alla capacità di una persona di comprendere il funzionamento interno di un sistema di IA. Un modello di IA interpretabile è caratterizzato da un processo decisionale che l’utente può facilmente seguire e comprendere. Questo si traduce in un funzionamento del modello sufficientemente trasparente per permettere agli utenti di discernere come gli input siano trasformati in output. Modelli come gli alberi decisionali e le regressioni lineari, per esempio, sono naturalmente interpretabili, poiché consentono di osservare direttamente il percorso decisionale e l’effetto delle varie variabili. La visibilità del ragionamento di un sistema di IA incrementa la propensione degli utenti a fidarsi delle sue indicazioni e a interagire con esso con serenità.
Spiegabilità
La spiegabilità, invece, si concentra sulla capacità di articolare gli esiti di un sistema di IA in termini comprensibili all’uomo. È particolarmente pertinente per i modelli di maggiore complessità, come le reti neurali profonde, i cui processi decisionali non sono intrinsecamente trasparenti. La spiegabilità si avvale dell’impiego di strumenti e metodi supplementari volti a fornire chiarimenti su come il sistema di IA giunga a determinate decisioni o risultati. Ciò può includere la sintesi dei fattori più determinanti in una scelta o l’uso di rappresentazioni grafiche per illustrare il ragionamento del modello. L’obiettivo della spiegabilità è di colmare il divario tra la complessità dell’IA e la comprensione umana, consentendo agli utenti di apprendere le motivazioni dietro le decisioni dell’IA senza la necessità di addentrarsi nei dettagli complessi dell’architettura del modello.
Sebbene interpretabilità e spiegabilità siano concetti distinti, essi si integrano armoniosamente nel perseguire un’IA trasparente e degna di fiducia. L’interpretabilità è l’ideale ma non sempre fattibile, specialmente con modelli avanzati che garantiscono un’alta precisione o prestazioni superiori. In tali circostanze, la spiegabilità diventa indispensabile, offrendo un percorso per comprendere e riporre fiducia nelle decisioni dell’IA, anche quando la struttura interna del modello si presenta complessa. Diventa quindi fondamentale l’adozione di strategie volte a potenziare l’interpretabilità e la spiegabilità concepite per superare la complessità intrinseca dei modelli di IA e soddisfare il bisogno degli utenti di seguire e comprendere il processo decisionale. Di seguito, sono presentate alcune delle metodologie più efficaci a questo scopo.
Strategie per rafforzare l’interpretabilità
Le strategie per accrescere l’interpretabilità dei sistemi di IA sono diverse.
- Rilevanza delle Variabili: un metodo diffuso consiste nell’impiego di modelli capaci di evidenziare il peso delle diverse variabili nella formulazione di una decisione. Gli alberi decisionali, ad esempio, illustrano quali fattori e condizioni portano a determinati risultati, facilitando la comprensione della logica decisionale dell’IA.
- Modelli Semplificati: laddove possibile, si prediligono modelli più semplici come le regressioni lineari o logistiche, per migliorare la chiarezza interpretativa. Questi modelli permettono di visualizzare con maggiore facilità la correlazione tra le variabili di ingresso e il risultato finale, pur potendo talvolta compromettere la precisione in nome della semplicità.
- Sistemi a Regole Esplicite: un ulteriore approccio si basa sull’utilizzo di sistemi regolamentati da norme ben definite, che rendono il processo decisionale totalmente trasparente. La chiarezza delle regole impiegate assicura un alto grado di interpretabilità delle scelte operate dal sistema.
Strategie per ampliare la spiegabilità
Diverse sono le strategie per ampliare la spiegabilità.
- Spiegazioni Locali Interpretabili Indipendenti dal Modello (LIME): LIME è una tecnica che semplifica modelli complessi in versioni più elementari e localmente interpretabili al fine di giustificare previsioni singole. Questo strumento aiuta a capire le ragioni di determinate scelte dell’IA, mettendo in risalto i fattori più determinanti.
- Valutazioni additive di Shapley (SHAP): i valori SHAP forniscono una stima complessiva dell’importanza delle singole caratteristiche basata sui principi della teoria dei giochi. Questa metodologia consente di approfondire il contributo di ciascun elemento alla previsione complessiva, favorendo una più dettagliata comprensione del modello.
- Spiegazioni controfattuali: Queste analisi esplicano come variazioni specifiche degli input possano influenzare il risultato finale. Presentando situazioni in cui minime modifiche generano esiti differenti, le spiegazioni controfattuali permettono di delineare i confini operativi dell’IA e le condizioni che ne guidano le operazioni.
Compromessi e limitazioni
Addentrandosi nel tema dell’incremento dell’interpretabilità e della spiegabilità nei sistemi di IA, diventa imprescindibile riconoscere i compromessi e le limitazioni che questi miglioramenti comportano. Bilanciare la complessità dei modelli con l’interpretabilità e la spiegabilità è una sfida complessa che può impattare sensibilmente su prestazioni e funzionalità dei sistemi di IA.
Numerose organizzazioni, in particolare quelle operanti in settori regolamentati quali il bancario e il sanitario, hanno implementato politiche interne che limitano la complessità dei modelli per garantire un’adeguata interpretabilità. Le banche, ad esempio, potrebbero optare per modelli basati su alberi decisionali o su regressione rispetto a reti neurali più elaborate, data la maggiore trasparenza e la facilità con cui è possibile tracciare e comprendere le decisioni. Sebbene questa strategia sia favorevole all’interpretabilità, può ridurre le prestazioni, poiché i modelli più semplici potrebbero non essere in grado di rilevare le sfumature e i pattern che modelli più avanzati possono invece identificare.
La ricerca dell’interpretabilità e della spiegabilità si scontra spesso con la necessità di mantenere l’accuratezza e le prestazioni del modello. Modelli avanzati come le reti di deep learning forniscono capacità predittive di alto livello, ma la loro interpretazione è complessa. Questa difficoltà nasce dalla natura “black box” di tali modelli, in cui il processo decisionale non risulta trasparente né immediatamente intelligibile.
Infine, è importante considerare come le tecniche attuali per migliorare interpretabilità e spiegabilità non siano esenti da limitazioni. Nonostante tecniche come LIME e SHAP abbiano apportato significativi avanzamenti nell’interpretazione di modelli complessi, esse presentano delle restrizioni. Queste spiegazioni sono frequentemente delle approssimazioni e potrebbero non riflettere in maniera esaustiva il processo decisionale del modello. Inoltre, la generazione di tali spiegazioni può richiedere un elevato carico computazionale e non sempre si rivela fattibile in tempo reale.
Integrare spiegabilità, trasparenza ed equità nell’IA
Un pilastro dell’adozione responsabile dell’IA è assicurare che i sistemi non siano solamente trasparenti e intellegibili, ma anche improntati all’equità. L’interrelazione tra spiegabilità, trasparenza ed equità è fondamentale per il rispetto degli standard etici nelle applicazioni di IA, influenzando direttamente il livello di fiducia degli utenti in queste tecnologie.
L’incremento della spiegabilità e della trasparenza può promuovere l’equità tramite metodologie e pratiche atte a mitigare i bias e assicurare risultati imparziali. Tale incrementando permette agli stakeholder di analizzare più efficacemente i fattori che influenzano le decisioni dell’IA e quindi identificare e rettificare eventuali bias che il sistema di IA potrebbe aver imparato o generato, garantendo che i sistemi di IA funzionino in maniera equa. Ciò non solo rafforza la fiducia degli utenti ma allinea le pratiche IA con gli standard etici e i valori sociali. Alcuni esempi comprendono:
- Spiegazioni controfattuali: offrire spiegazioni controfattuali consente agli utenti di capire come variazioni specifiche negli input possano condurre a differenti risultati. Ciò facilita la trasparenza e permette di individuare casi in cui lievi modifiche possono annullare risultati discriminatori, promuovendo l’equità. Ad esempio, queste tecniche potrebbero rendere evidente che un sistema di IA categorizza come non adatta ad un prestino una donna con determinate caratteristiche, ma adatto un uomo con le stesse caratteristiche.
- Analisi del contributo dei dati: netodologie quali l’analisi dell’importanza dei dati, a livello della singola osservazione, possono fornire dettagli su come determinate variabili possano portare a decisioni discriminatorie. Esaminando questi elementi, gli sviluppatori possono rilevare e correggere le caratteristiche che predispongono il modello a bias ingiusti nei confronti di determinati individui o gruppi.
I prossimi passi normativi e tecnologici
Intesa la relazione che lega i concetti di trasparenza, spiegabilità e interpretabilità, è possibile riflettere sui passi normativi e tecnologici da compiere per garantire che questi requisiti siano rispettati in tutte le differenti fasi del ciclo di vita dei sistemi di IA, a partire dal loro sviluppo fino alla loro dismissione.
In particolare, dal punto di vista normativo, avere una definizione chiara ed univoca dei tre concetti, con focus specifico sulla spiegabilità, supporterebbe sia gli sviluppatori che i regolatori di soluzioni di IA nel garantire conformità alle principali norme vigenti in ambito IA, AI Act su tutte. In questo modo, verrebbe incentivato lo sviluppo – ed il conseguente utilizzo etico e responsabile di soluzioni di IA sicure per tutti gli stakeholder coinvolti ed impattati dalle stesse.
Allo stesso tempo, i recenti sviluppi tecnologici – in particolare per quanto riguarda i large language models – richiedono maggiore impegno in termini di trasparenza da garantire a fornitori e utilizzatori. Infatti, a tali sistemi vengono affidati compiti in misura sempre maggiore e che richiede la fornitura di informazioni precise e complete riguardo le modalità in cui esse sono svolte. Non risulta più essere solo sufficiente comunicare agli utenti di stare interagendo con sistemi di IA, ma è opportuno informare gli stessi circa tutti i meccanismi vigenti che hanno portato a compiere un’azione o a prendere una decisione specifica, oltre che informazioni sulle fonti e i dati di training, il trattamento dei diritti d’autore e dei dati di prompting fornite dagli utenti stessi. In questo contesto, garantire trasparenza diventa una sfida ancora più complessa.
Conclusioni
In conclusione, la chiara definizione normativa e l’adozione di tecnologie che promuovano la trasparenza sono passi essenziali per garantire un approccio etico e responsabile nell’implementazione e nell’utilizzo dei sistemi di Intelligenza Artificiale. Essi, però, devono essere accompagnati anche da un cambiamento socio-culturale che favorisca l’uso e la diffusione di tali tecnologie, intendendole come strumento di supporto e non osteggiandole come minacce in grado di sostituire l’imprescindibile componente umana.
[1] EDPS TechDispatch on Explainable Artificial Intelligence
[2] EDPS TechDispatch on Explainable Artificial Intelligence