L’output delle valutazioni del rischio creditizio basate sul machine learning sono spesso vissute come una black box, una scatola nera: impossibile risalire alle motivazioni alla base delle decisioni. Decisioni che impattano sull’accesso al credito di imprese e consumatori. Ecco perché sono stati implementati modelli che usano la capacità computazionale del machine learning ma con il pieno controllo dei processi che descrivono le decisioni.
ESG nelle mani della finanza, servono standard condivisi: tutti i nodi da sciogliere
Come si calcola il rating creditizio
I processi e algoritmi per il calcolo del rating creditizio hanno un chiaro obiettivo: la valutazione della cosiddetta “Probability of Default” su un determinato orizzonte di tempo, che tipicamente è di dodici mesi. Il giudizio sintetico dei rating, che solitamente si esprime in classi, esprime quindi la maggiore o minore probabilità che una determinata impresa vada in uno stato di insolvenza entro i successivi dodici mesi.
I rating si distinguono in due categorie:
- i rating “point-in-time” (PIT), che tengono conto, nell’analisi, di fattori permanenti e di fattori contingenti (ciclici) del soggetto esaminato;
- i rating “through-the-cycle” (TTC), che invece considerano quasi esclusivamente i fattori strutturali e permanenti del soggetto esaminato.
I rating PIT sono quelli tipicamente utilizzati per la valutazione del rischio di controparte di natura commerciale poiché, quel tipo di valutazione non può prescindere dall’analisi di elementi di natura contingente.
Per il calcolo del rating di un’azienda si utilizzano solitamente i seguenti ingredienti:
- i dati di bilancio, ove disponibili, con i relativi indici;
- i cosiddetti eventi negativi (protesti, pregiudizievoli, procedure concorsuali);
- i dati strutturali relativi all’impresa, quali il settore in cui opera, la sua anzianità ed altro.
Si tratta di parametri spesso comuni: tenuto conto che chi elabora i modelli predittivi del rischio di credito ha spesso professionalità molto consolidate nell’analisi di bilancio, gli algoritmi di rating spesso si basano su modelli statistici lineari. Modelli che consentono di governare pienamente tutte le fasi del processo: dalla definizione del dataset all’addestramento del modello, al suo testing, fino al suo rilascio. Questo è importante soprattutto se si debba spiegare a una controparte creditizia quali siano state le ragioni di un determinato giudizio.
Gli algoritmi di machine learning, invece, non permettevano tipicamente di governare al meglio i razionali sottostanti all’analisi perché emettevano un giudizio, magari molto accurato, senza che fosse chiaro da cosa dipendeva, poiché l’output era vissuto come una “black box”.
Come funzionano le micro-fasi del rating
Per provare a beneficiare della grande capacità computazionale e di gestione della complessità degli algoritmi di machine learning ma con il pieno controllo degli output, è necessario scomporre il processo di valutazione del rating in micro-fasi, utilizzando per ognuna di esse modelli di machine learning supervisionati e adatti ai vari ingredienti da utilizzare.
Ne è un esempio l’algoritmo sviluppato da SevenData, che si basa, per la parte relativa all’analisi di bilancio, su ventiquattro modelli a reti neurali artificiali, declinati per settore e dimensione dell’impresa e ognuno con un opportuna combinazione di nodi, strati e collegamenti. Questo modello è servito per stimare lo score di rischio connesso ai dati di bilancio ma anche a stimare, sulla base di 420 cluster organizzati per settore, dimensione e geografia dell’impresa, lo score di bilancio anche per le imprese che non lo pubblicano, quali tutte le società di persone.
L’algoritmo a reti neurali artificiali è stato affiancato ad una regressione logistica per il calcolo dello score connesso agli eventi negativi (protesti, pregiudizievoli e procedure concorsuali) e a un’ulteriore regressione logistica per la ponderazione delle varie componenti che definiscono lo score numerico del rating finale.
Le performance di questi modelli combinati basati sul machine learning supervisionato, in termini di accuracy, calcolate tramite back-testing ed osservate tramite la curva ROC (Receiving Operating Curve) sono molto elevate e allineate a modelli di analisi che si basano su un numero di informazioni dirette (es: esperienze di pagamento) molto maggiori.
La possibilità di evoluzione del modello
Questo approccio che si basa su grandissime capacità di elaborazione e lettura dei dati consente poi di “iniettare” sistematicamente nuovi parametri contingenti di analisi: ad esempio, in questo momento, dati che derivano dall’analisi delle imprese potenzialmente più a rischio per l’esplosione dei costi energetici o per gli impatti settoriali o di filiera, derivanti dagli shock sulle catene di fornitura determinati dal conflitto in Ucraina.
In sostanza, l’opportuna e supervisionata combinazione di algoritmi di machine learning, insieme ad una elevata qualità dei dati di input, permette di ottenere performance predittive molto elevate e soprattutto di continuare a far evolvere i modelli, sulla base di dati contingenti e con effort sostenibili.