L’approccio data driven può avere effetti dirompenti sulla gestione dei fondi strutturali europei, su cui l’Italia conta per innovare la propria economia e sistema industriale.
La grande quantità di informazioni oggi disponibili, di natura attuativa e statistica, consente infatti di fare un decisivo passo avanti a supporto delle attività di decision making. Con evidenti vantaggi e qualche sfida da superare.
Come funzionano ora i Fondi europei
Ora, i Fondi europei funzionano in base a regolamenti comunitari che ne definiscono le regole di funzionamento per periodi di sette anni. Per gli ultimi due (2014-20 e 2021-27) l’Unione europea ha posto crescente attenzione alla gestione digitale delle informazioni di attuazione, basata sullo scambio elettronico di dati fra i diversi attori della governance (Beneficiari, Regioni, Ministeri ed Ue stessa). Questo approccio, tuttavia, si è finora concentrato sull’idea che le informazioni servano per il controllo ex post dell’esecuzione dei progetti, supportando il monitoraggio con un controllo a posteriori.
Con un approccio data driven, invece, si intende costruire processi e modelli decisionali sempre più basati su informazioni che emergono già durante la fase di attuazione.
Fino a oggi le scelte di investimento sono state definite nei Programmi (con un orizzonte settennale) e riviste solo periodicamente, sulla base di dispendiose attività di valutazione realizzate a metà periodo (cioè dopo circa tre anni dall’avvio). Il mondo reale, tuttavia, evolve con una velocità che non consente all’attore pubblico di riorientare le scelte ogni tre anni. Mutatis mutandis, basta notare come l’approccio al PNRR stia cambiando in meno di un mese, successivamente all’invasione dell’Ucraina. Insomma, bisogna sfruttare al massimo le informazioni disponibili per consentire interventi tempestivi, in grado di supportare le scelte del decisore pubblico in forma costante e continua, con consapevolezza e basi analitiche. Occorre dunque passare da una valutazione periodica (adempimento) ad un processo valutativo continuo basato sui dati (strumento), perché un approccio data driven può effettivamente favorire scelte informate, rapide ed efficaci.
Approccio data driven, i vantaggi
L’Italia ha molto investito nel corso degli ultimi 15 anni, dotandosi di strumenti e processi per raccogliere dati di attuazione, ma adesso serve un ultimo sforzo: i dati non devono infatti rappresentare solo l’output di un processo di raccolta finalizzato al controllo ex post, ma devono invece essere impiegati come input del processo decisionale, cioè delle scelte di investimento.
Il processo di digitalizzazione della PA, relativamente recente, sconta tuttavia lacune nella cooperazione fra sistemi informatici gestiti dai diversi attori, che spesso non si parlano.
Al momento siamo in una torre di Babele che le linee guida di Agid stanno progressivamente provando a riordinare e con la quale ciascun progetto deve confrontarsi. Connettere i sistemi di gestione dei fondi con le banche dati dei diversi attori della governance (utilizzando inoltre informazioni presenti su web, social e ogni altra fonte) consentirebbe la creazione di una “massa critica” che, se correttamente interpretata, potrebbe detonare enorme valore aggiunto. Per esempio, permetterebbe di integrare la politica di coesione con le altre policy nazionali.
Inoltre, ridurrebbe l’onere amministrativo della gestione dei fondi strutturali e, allo stesso tempo, migliorerebbe la capacità di rispondere ai bisogni specifici di ciascun territorio. Per farlo, tuttavia, è necessario applicare il principio once only come regola della cooperazione: le informazioni già in possesso dell’amministrazione devono essere scambiate fra sistemi e non più inserite o richieste al cittadino.
Sistemi e competenze necessarie
Bisogna dunque investire nell’ammodernamento dei sistemi informativi, per renderli adeguati ai paradigmi del cloud e della cooperazione applicativa, ma soprattutto occorre investire sulle competenze del personale, per assicurarsi che l’impiego dei sistemi non sia percepito come un onere burocratico, ma come uno strumento prezioso, un valore aggiunto. Attualmente, numerosi processi di reclutamento e formazione del personale sono in corso, ma è palese che non è solo una questione di numero di addetti. Per gestire la massa di informazioni oggi a disposizione e rendere efficienti gli strumenti tecnologici c’è bisogno di competenze da parte del personale. In particolare, la capacità di padroneggiare aspetti tecnologici e metodologici riguardanti la gestione e l’analisi di enormi flussi di dati di natura eterogenea.
Questo tipo di competenze, che sono assolutamente necessarie, sono di tipo interdisciplinare e consistono, in primis, in quelle statistiche e informatiche, che possono sintetizzarsi lungo il SAAS workflow: Search, Appraisal, Analysis, and Synthesis.
Andando nel dettaglio, in Search risulta importante conoscere la tipologia dei dati, le fonti e le modalità di estrazione degli stessi (API, ETL, SQL,…).
Nella fase di Appraisal le competenze riguardano la capacità di integrare i dati provenienti dalle diverse fonti e applicare algoritmi di data cleaning e data imputation che consentano di ottenere una base utile per l’analisi.
Per Analysis si intende la capacità di scegliere ed applicare tecniche e modelli statistici appropriati e rigorosi per finalità di analisi e per la natura dei dati.
Infine, per Synthesis si intende la capacità di rappresentare i risultati ottenuti attraverso strumenti di data visualization e reporting che siano potenti e intuitivi. L’obiettivo, dunque, è partire dal dato per ottenere informazione con le fasi di Search, Appraisal e Analysis, per poi trasformare tutto, con Synthesis, in conoscenza che funga da supporto ai processi decisionali.
Il ruolo del data scientist
Ogni fase richiede il supporto delle competenze di dominio. Ed è anche doveroso sottolineare quanto sia utile un approccio interdisciplinare tra economia, ingegneria e statistica. Il data scientist – questo il nome della figura professionale – deve infatti possedere un approccio globale, con competenze tecnologiche che può acquisire dall’ingegneria e dall’informatica, competenze analitiche di stampo statistico, e capacità manageriale e conoscenza dei processi aziendali per applicare le proprie competenze a problemi reali. Storicamente la figura del data scientist è stata formata nell’ambito dei corsi di economia, probabilmente non a caso perché tra le discipline necessarie, quelle economiche, dove la statistica ricopre un ruolo chiave, sono l’ambito più interdisciplinare.
I percorsi di formazione in data science
Questi professionisti in grado di gestire al meglio un approccio data driven si possono oggi costruire attraverso percorsi di laurea magistrale o post-laurea con un buon bilanciamento tra teoria e pratica, e approcci per lo sviluppo di competenze interdisciplinari. Ad oggi, purtroppo, i percorsi di formazione in data science sono ancora in nuce, ma a voler vedere il bicchiere mezzo pieno possiamo dire che alcuni mesi fa il Ministero dell’Università ha finalmente ha approvato una specifica classe di laurea intitolata “Data Science”. Se l’investimento in formazione è certamente necessario, limitarsi a formare il personale con elevata anzianità di servizio è limitativo e non consentirebbe di introdurre nella PA, con efficacia, l’innovazione.
Conclusioni
Non basta, ma la PA può e deve rivolgersi a quella platea sempre più vasta di giovani professionalità formati in percorsi in data science. Tuttavia, questo ingaggio può avere un maggiore impatto se integrato in una logica di open innovation. Se, cioè la pubblica amministrazione si apre all’innovazione apportata dal mondo delle università e dalle società specializzate in servizi di management IT. I singoli professionisti sono infatti un valore aggiunto prezioso, ma moltiplicano il loro effetto positivo se inseriti in contesti organizzati come quello degli atenei o delle aziende che supportano la pubblica amministrazione.
Viviamo in un mondo di dati che condizionano la nostra vita: dobbiamo organizzarli. E, quindi, organizzarci.