Migliorare i processi che generano il patrimonio informativo pubblico: è questo il compito che dovrà svolgere il governo italiano, in particolare il ministero dell’Innovazione, per riallinearsi agli obiettivi dettati dall’Europa in tema di data management. Soprattutto all’indomani della “bocciatura” che ha incassato l’Italia nell’ultimo Open data maturity report. Lo scenario e i nodi da affrontare.
L’Open data maturity report della Ue
È uscito l’Open data maturity report e i risultati non dicono molto di più di quella che è la situazione dell’open data in Italia (e all’estero) anche se è la prima volta che si affaccia. Sono passati 10 anni da quando la parola “open data” è diventata “popolare”. Prima, anche se con altri termini, rimaneva un argomento noto a pochi.
Mi piace sempre citare che Cesare Battisti, nel 1898, scriveva “Di più avrei potuto fare, specialmente nel campo statistico, se non ci fosse nel nostro paese, e nei privati e negli enti morali, una tal quale ritrosia a confidare al dominio del pubblico dati, fatti e notizie”. Lo scriveva nella veste di studioso, di geografo nella prefazione al libro “Il Trentino”.
Quando Barack Obama divenne presidente, il termine “open data” divenne popolare e associato al concetto ancora più grande e importante di “Open Government”.
Da lì, la voglia di un modo diverso di fare politica, all’insegna di tre parole chiave “partecipazione, collaborazione e trasparenza”, in una era digitale, ha sdoganato il termine “open data” dal mondo degli esperti di dominio, da quelli che hanno bisogno di dati nel loro lavoro, verso le persone che si adoperano per migliorare la vita dei cittadini.
I dati sono alla base della gerarchia della conoscenza, ne facciamo uso tutti i giorni per prendere decisioni, sicuramente non ne facciamo uso come potrebbe farlo l’intelligenza artificiale, ma ci basta tenere a mente dei fatti o interpretare dei dati per decidere quale è la strada migliore da fare per raggiungere un luogo, quale prodotto acquistare, a che ora svegliarsi al mattino e molto altro ancora. Più ne abbiamo e più, potenzialmente, siamo in grado di prendere la nostra decisione (giusta o sbagliata che sia). Pertanto, parlando di trasparenza, l’accesso ai dati appare la questione più naturale, e le conseguenze che ne derivano è il fatto di poter potenzialmente partecipare e collaborare.
Open data, il baricentro della trasparenza
Un disegno bellissimo che funziona però quando le persone sentono realmente questa necessità. La partecipazione costa fatica, e la collaborazione si ottiene quando ciascuno trova il desiderio di risolvere un suo problema o di avere un vantaggio che vale anche per altri. La trasparenza dovrebbe essere in grado di suscitare questo. Solo che, nella maggior parte delle volte, si chiede trasparenza dopo che una decisione viene presa da terzi o quando sta per essere presa, quando si sente la minaccia di perdere qualcosa o di subire un’ingiustizia.
È un meccanismo complesso sintetizzabile così: “prevenire invece che curare”. Attivare politiche in grado di fornire gli strumenti per prevenire situazioni del genere. Pertanto ben vengano le politiche di open data guidate dall’open government.
Nel farlo però bisogna tenere presente quello che si ha davanti: open data vuol dire aprire i dati. Quindi il primo step è ottenere i dati.
I dati, per essere fruibili devono prima essere raccolti, ben organizzati, documentati, verificati ed altro ancora. Si tratta quindi processi che non possono essere organizzati una sola volta per venire incontro al solo concetto di “esporre i dati”.
La retrocessione dell’Italia
L’open data maturity report vede l’Italia retrocedere di una categoria, da “trend setter” (quella più importante) a quella di “fast tracker”. Possiamo fare molti ragionamenti in merito, confrontarci, guardare alla classifica, ma quello su cui bisogna fare attenzione è la metodologia e non a pensare ad una competizione.
Se si guarda alla competizione, in questi casi, il rischio è di fare una inutile gara: d’altronde, quando le regole del gioco sono state chiarite, ci si allena per arrivare lì e, nel caso di misurare variabili complesse, si fa anche presto a filtrare per portare alla luce quelle più importanti. Essere fra i primi nascondendo la polvere sotto i tappeti è sempre facile, ma sappiamo che non dura molto.
Il nuovo Open Data Maturity Report declassa l’Italia di una posizione? Cerchiamo di capire perché. Interroghiamoci su cosa attualmente il sito dati.gov.it pubblica, guardiamo le singole Regioni o i capoluoghi di Provincia, cerchiamo la parola “open data”, guardiamo cosa pubblicano, apriamo (se ci riusciamo) quei file, vediamo la data dell’ultimo aggiornamento… Proviamo a pensare a quei dati come se fossero un rubinetto dell’acqua, acqua che serve ad irrigare i campi e chiediamoci che conseguenze ne derivano per l’agricoltura se quel rubinetto funziona male. Questo è ciò che sta accadendo.
Open data, “piccole rivoluzioni” isolate
Non tutto però è negativo: ci sono tantissime persone nel mondo dell’open data, che lavorano in trincea, sono tanti, disseminati un po’ ovunque. Per la maggiore sono funzionari pubblici.
Capire i dati, trasformarli, elaborarli, rappresentarli, ha dato loro molto entusiasmo. Un entusiasmo contagioso che sta cambiando il modo che si ha nella pubblica amministrazione di lavorare con i dati: c’è chi sta cominciando a partire dai dati per creare documenti (e non il contrario), chi si dà da fare per documentare, per raccoglierli, per aggiornare piccoli processi che migliorano la pubblicazione ed altro ancora.
Per la maggior parte si tratta di piccole rivoluzioni culturali. Dieci anni è un periodo molto lungo per l’innovazione, ma è un periodo estremamente impressionante per la pubblica amministrazione (l’attore che ha il ruolo più importante negli open data). Occorre quindi fermarsi a riflettere, vergognarsi un po’ della quantità di dati “immondizia” che si sono prodotti fino ad ora solo per rincorrere velocemente le aspettative dell’open goverment, forse guidati da troppo entusiasmo.
L’enfasi va messa sul concetto di “data” ( = la natura di cui stiamo parlando) e non sul concetto di “open” (= l’azione necessaria per rendere disponibili i dati). Non bisogna scoraggiarsi: il problema è comune in tutto il mondo, anche dove le cose sembrano andare bene.
La stessa Commissione Europea si sta interrogando su questo ed ha attivato una task force per ragionere sul tema dei dati ad alto valore da poter aprire.
Il punto di partenza è quello di partire dai dati visti come una infrastruttura pubblica. Questo, per quanto strano, non è assolutamente una novità: gli istituti nazionali di statistica hanno questo compito. Nel XXI secolo possiamo andare oltre, e già abbiamo molto ma ancora molto da fare per migliorare il tutto.
Il grafo stradale, un grande assente
Facciamo un esempio semplice: il grafo stradale nazionale. Attualmente, in Italia, è difficile avere un grafo stradale in formato digitale, che ricopra l’intero territorio mantenuto dagli enti pubblici. Un “catasto nazionale delle strade” sembra non esistere. Esistono però realtà che gestiscono questo dato a diversi livelli amministrativi, e ciascuno con regole e dizionari diversi (e in molti casi anche senza che si tratti di dati riusabili).
Questo è stato evidenziato anche da una recente ricerca sperimentale di ISTAT per il calcolo di indicatori per l’incidentalità stradale sulla rete viaria in Italia, dove si è scelto di usare il grafo stradale di Open Street Map in quanto “benché esistano archivi e grafi stradali dettagliati per singolo comune, provincia e regione, non è stato ancora istituito, però, un catasto strade nazionale armonizzato e sistematico”.
Queste sono le vere sfide per l’open data nei prossimi anni: migliorare i processi che generano il patrimonio informativo pubblico.
Da dove partire? Possiamo attendere quello che l’Europa ci chiederà nel continuo miglioramento della direttiva PSI (Public Sector Information), ma forse potremmo guardare ai nostri cassetti, a quanto persone come Bruno De Finetti aveva disegnato nel 1962.
Sicuramente una delle sfide su cui il ministero all’Innovazione dovrà pensare.