Quando, nel dicembre del 2014, l’AgID presentò il progetto soldipubblici, l’evento fu salutato come una prova del valore degli open data per la trasparenza dell’amministrazione pubblica. L’iniziativa riguardava la pubblicazione dei dati di spesa dei Comuni italiani, classificati secondo una tassonomia di voci approntata dalla Banca d’Italia (SIOPE). Grazie all’aggregazione e alla comparazione degli open data di bilancio dei Comuni, si potevano riscontrare cose note, come i costi dovuti all’eccessiva frammentazione, o scoprire cose strane, come il grande divario, per la stessa voce di spesa, tra comuni di aree diverse. Ma il sistema metteva anche in luce alcune difficoltà del metodo di classificazione utilizzato.
Sergio Rizzo e Gian Antonio Stella scrivevano sul Corriere della Sera:
“Certo, il sistema zoppica sulle varie voci dei bilanci. Che differenza c’è tra gli «incarichi professionali esterni» e gli «incarichi professionali»? Peggio ancora, certe caselle sono così generiche (…) da lasciare spazio a ogni interpretazione: «altre spese per servizi», «altri tributi», «altre infrastrutture» e così via. Prova provata della necessità di cambiare le regole definendo una volta per tutte per ministeri, Regioni, Province (finché ci saranno) e Comuni le diciture che possono essere utilizzate”.
Alcuni dei problemi evidenziati dai due giornalisti furono affrontati associando i codici SIOPE a un vocabolario generale, per cui oggi è possibile ricercare le voci di spesa relative a qualsiasi (ragionevole) parola-chiave. Tuttavia, resta difficoltoso, dal versante di questi codici, risalire alla realtà amministrativa dei Comuni, perché il problema del loro uso è alla fonte. Sono i Comuni, insomma, che rappresentano le loro spese in modo spesso eterogeneo, dovendo arbitrariamente scegliere tra molti codici semanticamente sovrapposti, come ad esempio quelli relativi agli incarichi professionali citati nell’articolo. Quando c’è ambiguità nella fase della produzione, nessun procedimento ex-post può ricostruire il significato inteso dei dati. Sarebbe un po’ come cercare di rimettere il dentifricio nel tubetto.
L’esperienza di soldipubblici, oltre a rappresentare uno dei primi esempi di sistematico utilizzo dei dati aperti della PA in Italia, ci interroga su ciò che è necessario per ottenere, dai dati aperti, conoscenze utilizzabili per sviluppare sistemi di estrazione di informazione, analisi statistiche affidabili, procedure di ragionamento automatico e quant’altro. Si tratta di uno dei temi più importanti sul tavolo della Task Force AgID sull’Intelligenza Artificiale.
L’Information Technology (specialmente il Knowledge Management) adotta spesso, in modo più o meno consapevole, il modello Data-Information-Knowledge-Wisdom (DIKW fig. 1) ispirato alla famosa Piramide di Meslow.
Il modello (comunque oggetto di notevoli diatribe) è visibilmente di carattere empirista: dalla materia inerte e grezza dei dati si passa, per successive elaborazioni, al distillato della conoscenza (lasciamo perdere la saggezza, per il momento). Quando i dati provengono dal mondo fisico, biologico o combinatorio, quest’idea, per quanto filosoficamente controversa, sembra funzionare. In effetti, i moderni sistemi di apprendimento automatico se la cavano piuttosto bene quando hanno a che fare con forme, sonorità, movimenti, situazioni, dinamiche. Dal continuum di ciò che osservano riescono ad astrarre i tratti salienti (features), e da questi giungono ricorsivamente a sintetizzare modelli dei fenomeni osservati. Ciascuno strato (layer) rappresenta un livello crescente di astrazione, fondato su quelli sottostanti ma qualitativamente separato. In molti casi interessanti, questi modelli mostrano ottime capacità predittive.
Ma quando i dati incorporano conoscenze, cioè quando i layer non sono chiaramente separabili, come avviene nelle basi di dati improntate a schemi concettuali o nei documenti testuali, ecco che le cose si complicano. Chi cerca di ottenere conoscenza linguistica dall’analisi statistica del testo, ad esempio, si trova notoriamente a immortalare tutti i pregiudizi (bias) contenuti nei documenti, spesso con risultati politicamente imbarazzanti. Per ottenere conoscenze politicamente corrette, si devono scegliere testi politicamente corretti. In altre parole, si devono scegliere i dati in funzione della conoscenza che si vuole ottenere. Ma così facendo, di fatto, la piramide si rovescia: lo strato superiore (conoscenza) viene usato per assemblare quello inferiore (dati).
I dati della Pubblica Amministrazione sono intrisi di conoscenze: norme, nomenclature, glossari, nozioni giuridiche e amministrative, contenute sia nel lessico dei documenti sia negli schemi dei dataset. Mettervi ordine in modo razionale è tutt’altro che banale. Non è impresa da pigliare a gabbo – diceva Dante – discriver fondo a tutto l’universo. Né possiamo, in questa impresa, riporre ingenue speranze nell’empiria dei metodi computazionali oggi in voga, che mietono successi, sì, ma principalmente in altri campi. Ricavare conoscenze dall’uso linguistico (al di là dei gusti filosofici) sarebbe problematico: dobbiamo in questo caso preservare la normatività del linguaggio amministrativo. Bisognerà dunque usare i metodi statistici, se è il caso, cum grano salis, avendo ben chiari scopi e contesti.
Alla governance, dunque, non si sfugge.
Per questo, il Piano triennale per l’informatica nella PA identifica, come area di intervento: vocabolari controllati e modelli dei dati, che costituiscono un modo comune e condiviso per organizzare codici e nomenclature ricorrenti in maniera standardizzata e normalizzata (vocabolari controllati) e una concettualizzazione esaustiva e rigorosa nell’ambito di un dato dominio (ontologia o modello dei dati condiviso).
La qualità di questi modelli, ma soprattutto la loro adozione nel corpo vivo delle amministrazioni, giocheranno un ruolo fondamentale nella costruzione di una PA più intelligente.