Il principio di trasparenza è da sempre un principio cardine nel nostro ordinamento, tanto da essere disciplinato in svariate normative, tra cui il GDPR, il Codice del Consumo, la L. 241/1990, il TUB e da ultimo l’AI Act.
Il principio di trasparenza nell’AI Act
Uno dei settori maggiormente impattati dai sistemi di intelligenza artificiale, e quindi anche dall’entrata in vigore dell’AI Act, è sicuramente il settore finanziario in quanto si sono sviluppate diverse tecnologie avanzate che riescono a processare e analizzare quantità di dati esponenziali con una precisione e una velocità tali da superare le capacità umane.
Proprio con riferimento all’AI Act, entrato in vigore lo scorso 2 agosto, il principio di trasparenza ha l’obiettivo di garantire un’IA affidabile ed eticamente valida. In questo contesto, il rispetto di tale principio, coerentemente con quanto previsto dall’High Level Expert Group on Artificial Intelligence (AI HLEG), si realizza attraverso il rispetto di misure che tendono a conferire al sistema delle caratteristiche fondamentali per garantire la trasparenza della procedura messa in atto dal sistema stesso, mediante una comunicazione chiara e con l’obbiettivo di garantire un’adeguata tracciabilità e spiegabilità dei sistemi di IA, a tutela dei diritti fondamentali.
L’articolo 4bis dell’AI Act
L’articolo 4bis dell’AI Act prevede infatti, uno sviluppo e un utilizzo dei sistemi di IA in modo da consentire un’adeguata tracciabilità e spiegabilità dei sistemi stessi, rendendo gli esseri umani consapevoli del fatto di comunicare o interagire con un sistema di IA e informando debitamente gli utenti delle capacità e dei limiti di tale sistema di AI nonché dei loro diritti.
Tuttavia, il principio di trasparenza così declinato all’interno dell’IA Act, è da coordinarsi con quanto previsto dal Regolamento Generale sulla Protezione dei dati, il quale all’articolo 5 enuncia che le informazioni riguardanti il trattamento dei dati personali siano fornite agli interessati in modo chiaro, accessibile e comprensibile con l’obiettivo finale di garantire che le persone siano pienamente informate su come i loro dati vengono raccolti, utilizzati, conservati e condivisi. Le informazioni fornite devono infatti essere chiare e semplici, accessibili e fornite in un formato comprensibile, complete e tempestive.
In entrambi i casi, emerge l’obiettivo finale dell’applicazione del principio in esame: garantire l’accessibilità e la comprensibilità dei dati.
In particolare, con riferimento ai sistemi di IA, il principio di trasparenza ha lo scopo di garantire che i sistemi di intelligenza artificiale siano tracciabili, spiegabili e comprensibili per gli utenti finali.
Trasparenza genera fiducia nell’IA
Soprattutto per quanto riguarda i sistemi di intelligenza artificiale generativa, l’output generato dai sistemi stessi può assumere diverse forme, tra cui immagini, suoni, grafici etc. e spesso tali contenuti sono creati autonomamente dall’IA, in assenza di controlli e interventi umani. In virtù del principio di trasparenza, l’utente finale deve essere in grado di comprendere l’output generato dal sistema e tale output non deve risultare lesivo dei diritti di terzi[1].
In tale contesto, il principio di trasparenza promuove la fiducia e l’adozione di tecnologie di intelligenza artificiale in maniera etica e responsabile.
Trasparenza lungo tutto il ciclo di vita dei sistemi IA
L’IA Act prevede, coerentemente con quanto enunciato dal GDPR, un’applicazione del principio di trasparenza lungo tutto il ciclo di vita del sistema di IA, già a partire dalla fase della progettualità del sistema, fino alla messa sul mercato del sistema stesso; in tale contesto è richiesta una particolare applicazione del suddetto principio qualora i sistemi di IA interagiscano direttamente con le persone fisiche o quando questi generino contenuti che possano comportare rischi specifici di inganno o impersonificazione[2].
Obblighi in capo ai fornitori
Al fine di garantire il rispetto del principio di trasparenza lungo tutto il ciclo di vita del sistema di IA, l’IA Act prevede diverse azioni. Tra queste, il Cons. 107 pone a carico dei fornitori dei sistemi di IA, l’obbligo di fornire al pubblico una sintesi sufficientemente dettagliata circa i contenuti utilizzati per l’addestramento del modello di IA per finalità generali, elencando per esempio le principali raccolte di dati utilizzati, le banche dati o gli archivi da cui sono state tratte le informazioni. L’ufficio per l’IA fornisce, quindi, un template di sintesi in modo tale da consentire al fornitore del sistema di IA, di presentare la sintesi richiesta in forma descrittiva.
Obblighi in capo ai deployers
Con particolare attenzione ai sistemi ad alto rischio, definiti tali dall’articolo 6 dell’IA Act, in primo luogo, l’articolo 27 IA Act pone in capo ai deployers l’obbligo di effettuare una valutazione d’impatto sui diritti fondamentali (FRIA), prima dell’immissione sul mercato dei sistemi di IA ad alto rischio, volta a identificare quali diritti fondamentali potrebbero essere potenzialmente impattati dal sistema di IA. Infine, a maggior tutela e rispetto del principio di trasparenza.
Obblighi di registrazione dei sistemi di IA ad alto rischio
In secondo luogo, l’articolo 71 prevede a carico del fornitore la registrazione dei sistemi di IA ad alto rischio all’interno di una banca dati pubblica ai sensi dell’articolo 71 IA Act, tale da consentire un’opportuna informazione al pubblico sull’ambito di applicazione, sugli incidenti dei sistemi di IA e sulle azioni messe in atto per risolvere questi ultimi[3].
L’ impatto dell’intelligenza artificiale sui sistemi bancari
Ma che impatto ha l’intelligenza artificiale sui sistemi bancari? E in che modo essa può innestarsi?
Tra i sistemi di IA che potrebbero essere implementati all’interno delle entità finanziarie rilevano principalmente, ma non esclusivamente:
- l’implementazione di sistemi di chatbot, i quali favoriscono una maggiore e tempestiva assistenza ai clienti;
- l’utilizzo di sistemi a supporto dei servizi di investimenti dei portafogli: in tale contesto, gli strumenti di IA sarebbero in grado di analizzare l’esperienza del singolo cliente e gli obiettivi di investimento tramite l’analisi automatizzata del questionario MiFID, con l’obiettivo finale di rivolgere delle raccomandazioni al cliente stesso sulle operazioni di investimento da porre in essere;
- lo sviluppo di sistemi di IA volti a valutare il rischio associato alle operazioni di investimento poste in essere dal cliente;
- l’adozione di sistemi volti a consentire il monitoraggio delle transazioni per rilevare eventuali frodi bancarie[4].
Mancanza di trasparenza dell’IA: i rischi per i processi finanziari
Se da un lato è vero che l’avvento dei sistemi di intelligenza artificiale ha garantito un miglioramento dei processi aziendali e finanziari, consentendo di migliorare le strategie di investimento, dall’altro lato questi presentano dei rischi e dei problemi legati alla qualità dei dati e degli output generati dal sistema di IA, nonché la potenziale mancanza di trasparenza di tali sistemi[5].
Su quest’ultimo punto, si evidenzia che sia il cliente che l’entità finanziaria potrebbero andare incontro al rischio di furti di dati sensibili dei tramite dei cyber-attacchi. Per tale ragione, le entità stesse devono sempre garantire che i sistemi di IA implementati siano conformi alle normative vigenti nonché a tutti quei principi in materia di protezione dei dati dettati sia dall’IA Act, sia dal GDPR, oltre che ai principi etici sviluppati dall’IA HLEG. Il principio di trasparenza assume, dunque, centralità anche in questo contesto[6].
Per garantire una maggiore tutela del cliente, indipendentemente dal sistema di IA che verrà utilizzato, l’ESMA richiede agli istituti finanziari di fornire, alla luce del principio di trasparenza enunciato sia dall’IA ACT, sia dal GDPR, tutte le informazioni utili e necessarie sulle modalità di utilizzo degli strumenti di IA in modo chiaro, corretto e il più comprensibile possibile[7].
Conclusioni
In conclusione, è pacifico affermare la centralità del principio di trasparenza anche alla luce del nuovo Regolamento, il quale richiede uno sviluppo e un’implementazione di sistemi di IA che siano facilmente comprensibili dagli utilizzatori e/o utenti, già nella fase di sviluppo. I deployer e i fornitori di tali sistemi dovranno, dunque, impegnarsi affinché vi sia un equilibrio costante tra l’innovazione tecnologica e il rispetto e la protezione dei diritti umani, nonché il rischio che questi ultimi vengano lesi.
Note
[1] La tutela dell’output realizzato dall’intelligenza artificiale, in www.dirittodigitale.com
[2] Cons. 132 IA ACT;
[3] EDPB-GEPD Parere congiunto 5/2021 sulla proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale);
[4] ESMA – Public Statement On the use of Artificial Intelligence (AI) in the provision of retail investment services.
[5] Ibidem
[6] “Come l’intelligenza artificiale rivoluziona il lavoro nella finanza: innovazioni e opportunità”, in www.23orebs.com;
[7] Ibidem