Nell’esperienza della città di Bologna, diffondere e promuovere la cultura della conoscenza attraverso la condivisione, in forma aperta, del patrimonio informativo della PA e dello spazio pubblico digitale urbano in cui essa si colloca, è un atto fondamentale di fiducia e di stimolo verso i cittadini e la loro partecipazione civica e di promozione dello sviluppo economico e sociale.
Con il progetto “Dati e Big Data Analytics per la comunità”, l’Agenda Digitale di Bologna (2016-2020) intende dare nei prossimi anni un impulso significativo su tale versante, per mezzo del miglioramento della capacità di governo e di organizzazione dei dati “a valore pubblico” generati dalle istituzioni, cittadini e imprese.
L’approccio
Come rendere operativa questa visione per dare vita ad un nuovo sistema di big e open data per la Comunità, a partire dallo scenario attuale?
Come viene evidenziato nel Piano triennale per l’informatica nella Pubblica amministrazione “non esiste nella Pubblica amministrazione un framework di analisi, standardizzazione e interscambio dei dati pubblici che favorisca, al contempo, la definizione e il monitoraggio di politiche data-driven”. Non solo la tecnologia è assente, ma nella maggior parte dei casi nella PA non è istituita formalmente una funzione deputata al governo dei dati. Se lo scenario attuale è questo, occorre attrezzarsi per reperire risorse su più livelli e darsi un’organizzazione per cogliere le opportunità che si prospettano. Le energie da mettere in campo dovranno essere erogate secondo un approccio di crescita incrementale, in un percorso che si svilupperà nell’arco di più anni, ma che dovrà cogliere risultati intermedi in base all’individuazione delle giuste priorità e all’interno di un framework condiviso.
Un punto di partenza può essere trovato in quanto di positivo è stato prodotto dalle iniziative di Open Data in questi ultimi anni in termini di tecnologia e diffusione della cultura dei dati nella PA e nella società civile. Attorno al movimento Open Data sono nate e si sono sviluppate competenze specifiche, comunità dedicate e progetti di riuso significativi, che la PA da sola non sarebbe stata in grado di realizzare.
A proposito di capitalizzare i risultati dei progetti open data, riportiamo alcuni casi d’uso recenti nati nel contesto di Bologna, grazie ai quali i dati rilasciati sul portale open data, miscelati con altre fonti esterne ed interne all’amministrazione, hanno consentito la realizzazione di elaborazioni a supporto di processi decisionali.
Attraverso il riuso di dataset Open Data, dei dati del SIT e dell’Ufficio Statistica del Comune è stato possibile predisporre dossier d’area complessi e analisi del contesto socio-demografico; costruire mappe dei luoghi di opportunità ideate dall’Urban Center a supporto del percorso partecipato dei laboratori di Quartiere.
Altro esempio d’uso rilevante è relativo allo strumento di analisi utilizzato per la definizione di un indicatore del livello obsolescenza urbano. In questo caso, sono stati selezionati ed utilizzati Open Data del Comune che avevano una declinazione cittadina (Urban Data), miscelandoli con altri dati accessibili sul web (p.es foto satellitari per misurare il livello di illuminazione della città e street view per il calcolo del footfall). Lo strumento di analisi generato (cruscotto predittivo) utilizza una serie di mappe che aggregano informazioni eterogenee e multidisciplinari divenendo, nel caso specifico, un valido supporto alle decisioni politiche per la governance dell’obsolescenza urbana di Bologna (ulteriori dettagli qui).
Nonostante alcuni limiti, queste esperienze, seppur nate in maniera spontanea nel contesto di progetti promossi dall’Amministrazione, che non avevano alla base della loro azione i dati aperti ma piuttosto il coinvolgimento della cittadinanza per l’analisi di fenomeni urbani, hanno messo a valore diverse fonti dati; segnando di fatto il passaggio verso una diffusa e rinnovata cultura del dato.
L’esigenza di dare supporto alle decisioni partendo dai dati richiede l’organizzazione di una risposta strutturale, che non può che partire dalle persone e dalle nuove competenze.
Le risorse per realizzare un ecosistema virtuoso dei dati
Data team
Il primo passo verso una strategia di valorizzazione dei dati dovrebbe consistere nel riconoscimento di una funzione aziendale deputata e nella conseguente costituzione di un data team multidisciplinare, che abbia all’interno capacità di governare processi di innovazione attraverso la curiosità, l’immaginazione e competenze tecniche quali:
- analisi e visualizzazione dati, anche geospaziali, per creare indicatori e rappresentazioni efficaci a supporto delle decisioni politiche;
- buona conoscenza del contesto interno e del dominio dei dati aziendali;
- capacità di ingegnerizzare le procedure di raccolta e integrazione dati;
- community building e coding per abilitare processi di raccolta dati partecipativi.
Una caratteristica fondamentale del profilo del data team, accanto alle competenze prettamente tecniche, dovrà essere la curiosità verso i fenomeni di trasformazione dello spazio urbano e delle relazioni sociali.
Il data team locale dovrà collaborare con il Big Data Team della PA, previsto dal Piano Triennale “un team composto da data scientist, big data architect ed esperti di dominio che provvedono al disegno e all’evoluzione concettuale della Piattaforma big data, alla costruzione di modelli di interconnessione delle diverse sorgenti dati”.
Tecnologie
Lo stack tecnologico di cui dotarsi dovrà indirizzare esigenze differenti attraverso layer differenti.
Tecnologie per la gestione dei dati:
- un data store, come definito nel DAF, con capacità di trattare dati strutturati che derivano dai gestionali tradizionali, dati non strutturati (p.es log o documenti), streaming di dati provenienti dall’IoT (telecamere, sensori di traffico, sensori per la misura della qualità dell’aria etc..), dati geografici e dati provenienti dal web;
- componenti per la trasformazione dei dati e l’alimentazione del data lake;
- procedure di certificazione;
- un repository dei metadati inteso come catalogo delle fonti informative, delle business rules e dei modelli;
- un layer in grado di offrire servizi di interoperabilità di alto livello;
- sistemi per gestire opportunamente la riservatezza dell’accesso nei diversi contesti.
Tecnologie per i dati aperti per:
- gestire il repository e il catalogo dei dati aperti configurato secondo standard riconosciuti;
- offrire accesso ai dati attraverso interfacce basate su open service e su standard internazionali ove già disponibili;
- fare harversting di altre risorse aperte su scala locale e federarsi con i livelli superiori di aggregazione, su scala regionale e nazionale;
- connettere il repository pubblico dei dati aperti con il data sore aziendale.
Tecnologie per la visualizzazione:
- tool per realizzare e rendere disponibili visualizzazioni accessibili ed efficaci, pronte all’uso, da costruire a partire dai dati certificati del data store aziendale e dagli open data, non solo aziendali ma anche esterni.