Adesso che la prima parte del lavoro sembra essere ben avviata, ovvero la pubblica amministrazione pare essersi finalmente convinta – almeno a parole – che i dati pubblici devono essere open by default, occorre prendere immediatamente consapevolezza che questi sono veramente tanta roba, quindi big.
Perché ho usato “sembra”, “pare” e “almeno a parole”?
Perché non sono ancora certo cha la PA italiana abbia, almeno per ora, superato uno dei più noti paradossi di Zenone[1], quello secondo il quale il pur veloce Achille non raggiungerà mai la indubbiamente più lenta Tartaruga.
Non avendo ancora la nostra PA, infatti, pienamente metabolizzato i rudimenti del calcolo infinitesimale e della teoria dei limiti, il rischio che l’innovazione Achille non raggiunga mai la burocrazia Tartaruga e che, quindi, l’ultimo centimetro che determina il successo del cambiamento non sia mai compiuto è altissimo.
Proviamo, però, ad essere ottimisti – a vedere il bicchiere non solo mezzo pieno ma anche grande e contenente del buon vino – e ad andare oltre.
Onestamente, dalle iniziative pionieristiche della Regione Piemonte[2] alla recente gara bandita dalla Regione Lazio[3], passando per l’adozione delle “Linee guida per la stesura di convenzioni per la fruibilità di dati delle pubbliche amministrazioni – versione 2.0”[4] da parte della Agenzia per l’Italia Digitale, molti passi avanti sono stati fatti.
La PA nel suo complesso ogni giorno raccoglie e gestisce – per il suo funzionamento, per garantire i servizi ai Cittadini e alle Imprese e per dare attuazione alle sue funzioni istituzionali – una quantità di dati impressionante.
Pensate all’ISTAT, all’ANAS, alla Agenzia delle Dogane, all’Agenzia delle Entrate, ma anche alle rilevazioni ambientali, alle informazioni turiste e culturali, ai dati epidemiologici, a quelli della mobilità delle persone, (…).
Vado avanti?
No, non è neanche immaginabile in questo contesto fornire anche solo un macro elenco che sia minimamente non dico esaustivo ma neppure esemplificativo.
Possiamo però, per provare ad avere una idea di cosa parliamo, a rilegge per esempio il Titolo V della nostra Costituzione, oppure anche solo l’articolo 117[5], quello che disciplina la potestà legislativa dello Stato e dalle Regioni.
Impressionante vero?
A cosa possono essere utili tutti questi dati?
Secondo alcuni soprattutto per rendere sempre più trasparente l’operato della PA, del così detto Palazzo, dell’insieme della burocrazia e della politica, insomma per dare piena attuazione al paradigma dell’open government[6], aiutando così i Cittadini a capire se il denaro che viene prelevato dai loro redditi attraverso le tasse e le imposte è gestito in maniera onesta ed opportuna.
Bene – condivido pienamente -, a patto che non si sconfini nel voyeurismo più sfrenato e demagogico, mi sembra una grande opportunità per riequilibrare il rapporto di forza tra i Cittadini e lo Stato.
Secondo altri, non certo in opposizione al paradigma dell’open government, i dati pubblici possono essere trasformati in informazioni, in conoscenza e in servizi ma soprattutto – secondo un convincimento ormai diffuso – questa attività può essere di natura economica e commerciale e non necessariamente di dominio esclusivo della PA.
Quindi la PA deve rilasciare i dati in formati aperti, e in maniera neutrale e precompetitiva, lasciando che Cittadini e Imprese si esercitino liberamente nel provare ad inventarsi attività anche di natura economica e commerciale[7] e con l’obiettivo di trarne ricavi e utili.
Secondo questa accezione il dato pubblico è anche una preziosa materia prima – molto più simile al prodotto di una fonte energetica rinnovabile piuttosto che al risultato dell’attività estrattiva di una miniera o di un giacimento petrolifero[8] – e diventa quindi una pregiata risorsa su cui fondare sviluppo economico, ricchezza e nuova occupazione.
Se il tema degli open data è centrale in materia di eGovernment e di open government, quando questi diventano big la materia deve essere iscritta di diritto nella agenda digitale nazionale, e in quelle regionali, nei documenti di smart specialisation strategy, nella programmazione dei Fondi Strutturali Comunitari 2014-20 – in particola nei PON e nei FERS e nei FSE – e in quella di Horizon 2020.
Perché stiamo parlando di sviluppo economico, di crescita di competitiva, di nuova e innovativa imprenditoria, di nuove competenze e di nuova occupazione, di nuovi servizi, di smart cities and regions.
Alcuni punti di attenzione.
1. Una volta che i dati sono liberi, utilizzabili e tanti è bene ricordare che questi sono una risorsa non soggetta a vincoli logistici e di prossimità. Se quindi le imprese nazionali non saranno pronte a trattarli e utilizzarli, e a farlo in maniera tempestiva e utile, saranno gli operatori economici di altre aree geografiche ad offrirci servizi e a generare valore sui nostri dati.
2. L’infrastruttura tecnologica del Paese non garantisce, ad oggi, la sicurezza di dati pubblici e la riservatezza di quelli che per loro natura non possono essere pubblici. Su questo tema di importanza strategica non si può che condividere l’autorevole opinione di Agostino Ragosa, Direttore Generale dell’AGID. Più di 4000 data center – per così dire – descrivono come surreale una infrastruttura così strategica per uno stato moderno.
3. Servono immediatamente competenze professionali di altissimo profilo che al momento non sono disponibili nel Paese. Il corretto utilizzo del FSE non è soltanto auspicabile, è un vincolo di crescita.
[1] http://it.wikipedia.org/wiki/Paradossi_di_Zenone
[2] http://www.dati.piemonte.it
[3] http://www.regione.lazio.it/rl_main/?vw=newsDettaglio&id=2189
[4] http://www.digitpa.gov.it/fruibilita-del-dato
[5] http://www.senato.it/1025?sezione=136&articolo_numero_articolo=117
[6] http://it.wikipedia.org/wiki/Open_government
[7] Entrepreneurial discovery.
[8] Una volta liberato ed estratto, infatti, il dato non è in dotazioni esclusiva di un solo utilizzatore ma rimane a disposizione – intatto e non consumato – anche di altri.