Gli ambiti di intervento dell’Intelligenza artificiale in ambito finanziario sono molteplici. Di conseguenza sono diverse anche le problematiche giuridiche ad essi connesse. Come anche in altri ambiti interessati dalla pervasività dell’AI, è necessario approcciare queste innovazioni con piena consapevolezza del quadro normativo, in modo da poter cogliere tutte le opportunità e al contempo fornire risposte soddisfacenti per la tutela dei diritti dei soggetti (fisici o giuridici) coinvolti.
Nei precedenti articoli le tematiche legali inerenti lo sviluppo e la diffusione dell’intelligenza artificiale (“artificial intelligence”, di seguito, “AI”) sono state affrontate con un approccio fondato sulle specifiche aree giuridiche interessate. Con il presente articolo viene proposto un approccio parzialmente diverso, basato sulle implicazioni giuridiche connesse all’utilizzo della AI in uno specifico comparto economico: ci riferiamo alla diffusione nel settore finanziario della AI e delle tecnologie machine learning (quelle tecnologie, cioè, capaci di “imparare” in autonomia sulla base delle esperienze pregresse e delle diverse variabili ambientali, arrivando a indirizzare condotte e decisioni future e assumendo addirittura funzioni predittive), che per semplicità espositiva considereremo, in questa sede, un segmento dell’AI.
Prima di entrare nel merito delle nostre considerazioni, è opportuna una precisazione: non saranno approfondite, in questa sede, le questioni giuridiche legate tout court al fenomeno Fintech, che – senza volersi addentrare in complesse definizioni o categorizzazioni – potrebbe essere indicato come l’insieme delle tecnologie dell’innovazione in ambito finanziario; il fenomeno Fintech, pertanto, comprende certamente anche le tecnologie AI applicate alla finanza, ma non si esaurisce a questi aspetti. Ai fini del presente articolo ci concentreremo, pertanto, su alcuni specifici aspetti del mondo Fintech, non sul fenomeno Fintech in generale (né tantomeno sulle implicazioni giuridiche generali).
Chiarito questo aspetto, è possibile svolgere alcune considerazioni introduttive sulla penetrazione di AI in ambito finanziario, e sulle problematiche legali ad essa connesse.
AI e attività finanziarie, troppi allarmismi
Innanzitutto, è bene chiarire sin da subito che, a dispetto dei toni allarmistici spesso adottati da stampa e commentatori a vario titolo, l’incontro tra intelligenza artificiale e attività finanziarie non deve essere demonizzato a priori; come vedremo, le opportunità connaturate dall’utilizzo di AI potrebbero ipoteticamente essere addirittura superiori ai rischi e agli svantaggi, in prospettiva sia individuale (con riferimento, cioè, alla tutela delle prerogative e dei diritti dei singoli individui), sia macroeconomica (con riguardo alle complesse dinamiche finanziarie, locali e sovranazionali): molto dipenderà dall’approccio degli operatori del settore alle tematiche AI, e dalla efficacia (e lungimiranza) dell’intervento di legislatori e autorità di controllo.
La AI “permea”, ad oggi, l’intero mondo finanziario, nel senso che ogni operatore del settore, su scala praticamente mondiale, si interfaccia quotidianamente con una realtà fortemente caratterizzata dall’utilizzo di tecnologie AI. E non ci riferiamo solo agli istituti finanziari: anche le autorità regolamentazione dei mercati finanziari hanno iniziato un utilizzo sempre più pervasivo delle tecnologie AI, per finalità di supervisione e controllo delle condotte degli operatori del settore.
Ancora, le tecnologie AI sono utilizzate per le finalità più disparate nel mondo finanziario, e non solo – come qualcuno, maliziosamente, sostiene – per perseguire una valutazione sempre più precisa (e predittiva) della clientela attuale o potenziale.
A titolo meramente esemplificativo, le tecnologie AI sono correntemente utilizzate (i) per automatizzare le relazioni istituto / cliente, istituto / istituto e istituto / autorità di regolamentazione, (ii) per lo svolgimento di dettagliate analisi sul corrente andamento dei mercati (o di singoli titoli / strumenti), e per elaborare predizioni sugli andamenti futuri, e conseguentemente (iii) per elaborare nuovi modelli di business e/o strumenti finanziari di varia natura, oppure (iv) per finalità di miglioramento dei modelli e delle tecniche di risk management, e infine (v) per il corretto e tempestivo svolgimento di attività di compliance.
L’impatto rivoluzionario della AI sul settore
Chiariti gli innumerevoli ambiti di utilizzo delle tecnologie AI in ambito finanziario, è possibile comprendere come il loro impatto sia potenzialmente rivoluzionario nel mondo della finanza “tradizionale”. Rivoluzione che è già in atto oggi, e che procederà a ritmi esponenzialmente più elevati in considerazione dei progressi tecnologici che riguardano l’AI in questi anni.
Proprio come avviene nell’ambito di ogni rivoluzione tecnologica, anche l’innovazione finanziaria consentita dall’utilizzo della tecnologie comporta alcune problematiche giuridiche, di varia natura. Si tratta, in alcuni casi, di tematiche già affrontate nei precedenti articoli (soprattutto in tema di data protection e cybersecurity: sono aspetti “trasversali”, che impattano di fatto su qualsiasi ambito applicativo dell’ AI); in altri casi, si tratta invece di peculiarità connaturate alla struttura e alla regolamentazione del settore finanziario.
E’ possibile provare a suddividere tali tematiche legali a seconda che l’utilizzo della AI inerisca i rapporti, diretti o indiretti, delle istituzioni finanziarie con i clienti / consumatori (e più in generale con persone fisiche), o le attività di natura più prettamente tecnico / finanziaria (es. creazione strumenti finanziari, analisi di mercato, ecc.).
AI e finanza: il fronte dati personali
Intuitivamente, l’utilizzo di tecnologie AI nei rapporti con la clientela comporta criticità a livello di tutela dei dati personali. Questo avviene soprattutto in caso di adozione di sistemi automatizzati di valutazione della clientela, con riferimento sia alla predisposizione dei singoli individui ad effettuare investimenti più o meno rischiosi (ai fini della proposizione di strumenti “personalizzati”), sia – soprattutto – all’accesso ai servizi forniti (es. credit scoring, valutazioni di solvibilità, ecc.). Sono utilizzati, in questi casi, sofisticati sistemi di profilazione degli individui, che potrebbero condurre all’assunzione di decisioni estremamente rilevanti (si pensi ad esempio alla concessione di un credito o all’erogazione di un mutuo). Tali circostanze pongono due ordini di necessità.
In primo luogo, è necessario che il funzionamento dei sistemi di profilazione mediante utilizzo di tecnologie AI sia descritto in modo adeguatamente trasparente: sul punto, trovano applicazione gli articoli 13 e 22 del Regolamento 2016/679/EU (General Data Protection Regulation – “GDPR”), che impongono di rendere disponibili, anche all’interno dell’informativa da sottoporre obbligatoriamente ai soggetti interessati, informazioni di dettaglio sulle logiche sottese ai sistemi di profilazione adottati.
In secondo luogo, in considerazione del fatto che le attività di profilazione svolte da sistemi AI avvengono mediante incrocio e aggregazione di enormi quantitativi di dati e informazioni (nella logica dei Big Data), è necessario intervenire sulle “fonti”, assicurandosi che gli algoritmi processino informazioni sicure, veritiere e oggettive. Si tratta di un aspetto essenziale: l’assunzione di decisioni di natura finanziaria, fondata su fonti contestabili o comunque non precise, potrebbe dar luogo a fenomeni discriminatori (è già successo in USA, con riferimento a valutazioni di credit scoring basate su informazioni relative a caratteristiche fisiche e luoghi di residenza). E’ pertanto necessaria una attività di controllo e audit non solo sulle logiche sottese al funzionamento delle tecnologie AI, ma anche sulle dinamiche mediante cui tali tecnologie traggono le loro informazioni dalle banche dati disponibili attraverso il fenomeno dei Big Data.
AI e cybersecurity, l’approccio giusto
Oltre ai temi in materia di protezione dei dati personali, di conseguenza, si pongono anche sensibili problematiche relative ad aspetti di information security e cybersecurity: i sistemi AI utilizzati dagli istituti finanziari nei loro rapporti con la clientela, in conseguenza dei dati personali trattati (non solo di natura finanziaria: come si è visto appena sopra, un sistema AI può processare informazioni di natura più disparata), devono essere dotati di misure di sicurezza particolarmente rigide, al fine di evitare accessi non autorizzati e/o alterazioni degli algoritmi.
Per quanto riguarda le tematiche legali correlate alle attività più “tecniche” cui sono destinati i sistemi AI in ambito finanziario, si pongono problemi di natura prevalentemente regulatory.
AI e finanza, il rischio sistemico
Infatti, da un punto di vista più generale, deve innanzitutto essere valutato l’impatto delle tecnologie AI sulla stabilità del sistema finanziario, in considerazione delle sensibili modificazioni apportate alle tradizionali dinamiche delle operazioni finanziarie in tema di efficienza, affidabilità e soprattutto velocità di produzione di output di varia natura: l’improvviso utilizzo di sistemi AI, infatti, potrebbe destabilizzare lo status quo e condurre a problematiche di rilevante entità, come crisi sistemiche. Tale valutazione, ovviamente, riguarda l’impatto delle nuove tecnologie AI, e non quelle già in uso (che, ai fatti, hanno già superato questo “vaglio di stabilità”).
Una seconda tematica (di natura, in realtà, non solo regolamentare, ma anche contrattuale) riguarda i rapporti esistenti tra istituti finanziari e i fornitori di tecnologie AI. La complessità delle dinamiche dei sistemi AI, infatti, rende difficoltoso lo sviluppo di tecnologie proprietarie: nella stragrande maggioranza dei casi, gli istituti finanziari ricorrono a fornitori terzi. Tale circostanza fa emergere alcune criticità.
Intelligenza artificiale, il fronte “fornitori”
E’ innanzitutto necessario che sia evitata l’insorgenza della c.d. customer dependency, ossia della subordinazione dell’istituto finanziario ai servizi AI resi da uno specifico fornitore; questo accade quando, a livello contrattuale, gli obblighi del fornitore nei confronti del committente, soprattutto in fase di cessazione del rapporto, non sono sufficientemente dettagliati: in caso di mancata disciplina di idonee “exit strategies” e procedure per il passaggio di consegne (ad esempio, a terzi fornitori), l’istituto finanziario, per evitare di subire l’interruzione tout court dell’erogazione di servizi mediante tecnologie AI, potrebbe essere obbligato a proseguire i rapporti con il fornitore iniziale, magari anche a condizioni particolarmente onerose.
Ancora, si pongono problemi in tema di trasparenza e verificabilità dei sistemi AI forniti, a causa della scarsa propensione dei fornitori a comunicare informazioni di dettaglio relative a suddette tecnologie (la problematica, ovviamente, si pone anche con riferimento alla necessità di trasparenza delle logiche sottese al funzionamento delle tecnologie AI, in ottica di tutela dei dati personali): l’effettivo esercizio di diritti di audit in capo all’istituto finanziario, pur se contrattualmente pattuiti, appare estremamente arduo.
La gestione dei rapporti contrattuali tra istituti finanziari e fornitori non è esclusivamente demandata all’autonomia negoziale delle parti: alcune rilevanti limitazioni sono imposte anche dalle autorità competenti, a livello locale e sovranazionale. Si pensi, ad esempio, alla circolare della Banca d’Italia n. 285 del 2013, oppure – soprattutto – alle linee guida emanate dall’European Banking Authority nel febbraio 2019 sui processi di outsourcing, entrate in vigore in data 30.09.2019. Detti provvedimenti, di cui parleremo anche nel prossimo articolo, sono diretti a disciplinare i rapporti tra istituti e fornitori di servizi ICT in senso generale, ma trovano applicazione anche con riferimento alla fornitura di tecnologie AI.