Questa riflessione parte da una domanda che abbiamo posto proprio ad una AI, una AI generativa per l’esattezza: abbiamo chiesto a ChatGTP se ha senso parlare di AI, o se prima è meglio o più opportuno conoscere dati, interoperabilità, automazione dei processi. Di seguito riportiamo il dialogo avuto, e alcune riflessioni su dati, interoperabilità e automazione nella PA.
Fondamenti pre-IA: cultura dei dati e alfabetizzazione
Umani: Ciao, non pensi sia meglio avere una cultura dei dati, dell’interoperabilità e dell’automazione dei processi, prima di lanciarsi nel mondo dell’intelligenza artificiale come se fosse la soluzione a tutti i problemi?
AI: Assolutamente sì, è una prospettiva molto saggia. Prima di immergersi nel mondo dell’intelligenza artificiale (IA), è fondamentale stabilire una solida base di competenze nei fondamenti dei dati, dell’interoperabilità e dell’automazione.
Certo, capire di dati, interoperabilità e automazione non è prerequisito per poter utilizzare una AI generativa, ma sicuramente la mancanza di solide basi di conoscenza di dati e interoperabilità — oltre che di automazione associata a dati e processi — depotenzia di molto la comprensione della valenza di queste tecnologie e di come possono cambiare il nostro modo di lavorare.
La differenza tra cultura dei dati e data literacy
Abbiamo ripetutamente sentito, nel corso degli anni l’affermazione per cui ”i dati sono il nuovo petrolio” (alcuni sostengono che sia energia rinnovabile più che petrolio, ma magari su questo torneremo un’altra volta). In realtà, i dati sono molto di più del petrolio, perché non richiedono centinaia di anni per formarsi, possono essere generati da chiunque, possono cambiare proprietario in un attimo, possono essere utilizzati e riutilizzati a piacere. A differenza del petrolio, inoltre, lo “stoccaggio” è molto più semplice e il trasporto avviene alla velocità della luce.
Queste caratteristiche portano ad una crescita esponenziale dei dati, all’interno della “data economy”, come sintetizzato dall’immagine che segue
Sorgente: https://explodingtopics.com/blog/data-generated-per-day
Questa totale immersione nei dati, quindi, rende fondamentale la loro comprensione, alla base della nostra esistenza e del nostro agire quotidiano.
Distinguiamo, in particolare due aspetti, strettamente correlati tra loro, ma differenziati nel contesto dell’analisi dei dati e della gestione delle informazioni: cultura del dato e data literacy.
La cultura del dato si riferisce all’approccio e alla mentalità organizzativa nei confronti dei dati, coinvolge l’intera Amministrazione e mira a creare un ambiente in cui i dati siano valorizzati, compresi e sfruttati per prendere decisioni informate (decisioni data driven). La cultura del dato promuove l’importanza dei dati come risorsa strategica e incoraggia l’adozione di pratiche che migliorano la qualità, la sicurezza e l’utilizzo dei dati. Includere la cultura del dato nell’organizzazione significa che l’attenzione ai dati è integrata in tutte le fasi del processo decisionale e che tutti i livelli dell’organizzazione comprendono l’importanza dei dati nella gestione quotidiana.
La data literacy, o alfabetizzazione ai dati, si riferisce alle competenze e alle capacità individuali dei membri dell’Amministrazione nel comprendere e utilizzare i dati in modo efficace. Gli individui con data literacy sono in grado di interpretare, analizzare e comunicare i dati e le informazioni da essi ricavate in modo significativo. Questa competenza richiede una conoscenza delle basi di statistica, la capacità di utilizzare strumenti analitici e di interpretare correttamente i risultati delle analisi. La data literacy è, quindi, essenziale affinché il personale possa trarre valore dai dati e prendere decisioni basate su evidenze (decisioni evidence based).
Governance, analisi e protezione dei dati
In sintesi, potremmo dire che la cultura del dato si concentra sull’aspetto organizzativo e sulla mentalità aziendale nei confronti dei dati, mentre la data literacy riguarda le competenze individuali e la capacità di interpretare e utilizzare i dati in modo efficace. Idealmente, entrambi questi concetti dovrebbero essere integrati per massimizzare il valore derivato dall’uso dei dati in un’organizzazione.
Ma una reale data literacy è anche collegata alla conoscenza e comprensione delle fasi di raccolta/formazione di dati di qualità, dell’identificazione delle fonti, della loro integrazione e della pulizia dei dataset, per eliminare eventuali errori o dati incompleti.
In tal senso, cultura del dato e data literacy, come aspetti differenti ma complementari, non possono prescindere dalla gestione dei dati (la data governance, che coinvolge l’organizzazione, la categorizzazione e la memorizzazione sicura dei dati, rendendoli facilmente accessibili e disponibili quando necessario), dalla loro analisi (finalizzata a trarne informazioni, senso, anche mediante l’uso di strumenti di analisi dati, statistiche e tecniche di visualizzazione), dalla loro protezione (la sicurezza dei dati è prioritaria e richiede di implementare misure di sicurezza per proteggere i dati da accessi non autorizzati o da perdite/modifiche, ed è fondamentale per mantenere la fiducia degli utenti e rispettare integralmente il dettato normativo), della necessaria interoperabilità (con la conseguente standardizzazione dei dati e dei modelli/schemi, facilitando lo scambio di informazioni tra sistemi, fondamentale per garantire che i dati siano interoperabili tra diverse piattaforme e applicazioni).
Ovviamente, tale complesso approccio risulta differente a seconda del contesto di applicazione: se pensiamo ad una pubblica amministrazione locale, per esempio un comune di piccole dimensioni, è usuale vedere dati inseriti, modificati e visualizzati nell’ambito di un applicativo che gestisce una specifica e determinata procedura, o, in alcuni casi, di software gestionali che raggruppano più procedure, comunemente noti come “suite”.
Queste suite vengono presentate come un’unica base dati, come un unico “data lake” (quindi, i dati nativamente sono tra loro “correlati”); in alcuni casi questo è vero; in altri casi, invece, si tratta di moduli affiancati uno all’altro, che non scambiano dati tra loro, generando quelli che definiamo “silos applicativi”.
Come dicevamo, in molti casi questi dati vengono inseriti e raccolti solo ed esclusivamente per lo scopo specifico per cui sono stati generati; di conseguenza, non vengono né bonificati, né migliorata la loro qualità, né arricchiti, né rielaborati, né analizzati. Anche per questo motivo, la maggior parte dei software della pubblica amministrazione non ha dashboard di business intelligence o di analisi, limitandosi alla funzione specifica per cui l’applicativo è stato progettato.
L’importanza dell’interoperabilità “by default”
Cuore dell’impianto, quindi, è e deve essere I’interoperabilità, che garantisce la comunicazione tra i vari sistemi all’interno di un’amministrazione o tra i sistemi di amministrazioni diverse (che è poi quello che fa, per citare un recente esempio di lavoro in tal senso, la PDND, Piattaforma Digitale Nazionale Dati). Tale approccio, quindi lavorare su una interoperabilità “by default”, evita che i dati rimangano isolati nei silos cui prima abbiamo accennato (interni ad un’applicazione, tra applicazioni di un ente o tra applicazioni e basi dati di enti diversi), rendendo più difficile l’analisi globale del sistema ente.
Ma non parliamo solo di interoperabilità tecnologica: accanto ad essa, infatti, trova sempre posto l’interoperabilità umana, raccontata già in questo articolo di cui prendiamo un estratto:
“Capacità di due o più sistemi, reti, mezzi, applicazioni o componenti, di scambiare informazioni tra loro e di essere poi in grado di utilizzarle. In una società globalizzata che vede una sempre crescente diversità di sistemi e di applicazioni, l’interoperabilità rende possibile lo sviluppo di mercati e sistemi globali, prevenendo gli indesiderabili effetti della frammentazione. In stretta sintesi l’interoperabilità è la chiave di un sano sviluppo della globalizzazione. Essa può essere di tipo tecnico e/o di tipo concettuale.
Il primo tipo di interoperabilità e sicuramente il più importante, è quella umana. Il secondo tipo di interoperabilità è quella tecnica.
La seconda è figlia della prima, perché molto più semplice e sviluppabile laddove c’è interoperabilità umana, condizione necessaria per sviluppare quella tecnica.
Ricordiamo infatti la definizione di interoperabilità: “capacità di due o più sistemi, reti, mezzi, applicazioni o componenti” a cui aggiungere, “persone, uffici, ruoli, business unit, gruppi di lavoro, team, dipartimenti, istituzioni” che lavorano insieme, scambiandosi informazioni, per conseguire un obiettivo comune, sia questo un prodotto, un servizio, un progetto, un risultato”.
La Piattaforma Digitale Nazionale Dati
L’interoperabilità umana è, quindi, condizione necessaria ma non sufficiente per realizzare l’interoperabilità: altrettanto necessaria, infatti, è l’interoperabilità tecnologica, che trova proprio nella PDND, sostenuta e finanziata dalla misura 1.3.1 del PNRR, la sua attuale concretizzazione. Da questo punto di vista, la Piattaforma Digitale Nazionale Dati standardizza anche la comunicazione e l’interoperabilità umana, innanzitutto perché permette a un ente erogatore di stabilire le condizioni (api, numero di richieste, url …) alle quali è disponibile a fornire il dato richiesto e, di contro, ad un ente fruitore di inserire le informazioni necessarie all’ente erogatore per ottenere il nulla osta all’accesso al dato. In questo modo, quindi, si standardizza, traccia e semplifica anche l’interoperabilità umana; senza dimenticare — altro aspetto fondamentale — che quella interoperabilità tra persone/strutture/uffici diventa pre-requisito necessario, all’interno della stessa amministrazione, per le valutazioni necessarie ad operare sulla Piattaforma, sia in fruizione che in erogazione
Ma per un interoperabilità effettiva servono ancora due elementi molto importanti.
Il primo, doveroso ma troppo spesso messo in secondo piano, è la standardizzazione delle API disponibili tra le varie piattaforme, che incrementerebbe la comunicazione tra i partner tecnologici. Pensiamo a quelli della piattaforma pagoPA e della piattaforma SEND, ad esempio. Allo stesso modo, servirebbe la standardizzazione delle API rese disponibili dai fornitori dei gestionali utilizzati dalle Amministrazioni, per esempio del gestore documentale/protocollo informatico (sicuramente di grande utilità per i fruitori della misura 1.4.1 “Esperienza del cittadino nei servizi pubblici”). Standardizzare eviterebbe, in questo modo, lo sviluppo di “N” integrazioni diverse, una per ogni fornitore, rendendo sufficiente lo sviluppo di un solo connettore.
Il secondo, ulteriore elemento necessario è l’esistenza di queste API. Sembra quasi un controsenso ‒ vista la rilevanza che assume nell’intero ragionamento oggi effettuato ‒, ma non tutti i possibili fornitori della pubblica amministrazione hanno la cultura dell’apertura dei loro sistemi, dei dati e della costruzione e documentazione delle API. Se fino al pre-pandemia l’assenza delle API risultava per certi aspetti comprensibile, vista l’obsolescenza di alcuni software ancora client-server, con la migrazione al cloud ‒ e con la misura 1.2 del PNRR a sostegno di questo passaggio ‒ è fondamentale rivedere alcune modalità di sottoscrizione dei servizi (moduli vs. utente/mese), ma, soprattutto, per agevolare il cambio di passo, è fondamentale elencare le API rese disponibili (incluse quelle per poter scaricare i propri dati senza dover passare dal fornitore). Quest’ultima è condizione necessaria per essere presenti nel catalogo ACN: Testo del provvedimento: 628 DT DG 628 – 15 dic 2021 – Regolamento servizi cloud (Pubblicato il 15/12/2021).
Da regolamento servizi cloud
Questa “interoperabilità by default”, quindi, deve fare perno su una corretta progettazione a monte che renda interoperabile, in modo nativo, i vari servizi da integrare presenti sul catalogo della PDND, senza che questo comporti la necessità di adeguamenti successivi e conseguente esborso di attivazioni e canoni.
In un passaggio precedente, abbiamo richiamato l’importanza di modelli e schemi: l’interoperabilità, infatti, si basa su schemi e i relativi cataloghi ad essi associati, che consentono di avere identica codifica per identici campi.
È il lavoro che fa un altro recente e importantissimo strumento pubblico, il catalogo nazionale per lo scambio di dati e informazioni tra pubbliche amministrazioni schema.gov.it, nato su impulso del DTD e di ISTAT, che si sta gradualmente arricchendo di modelli semantici proprio a supporto dello sviluppo di API semanticamente e sintatticamente interoperabili.
L’automazione dei processi
Nel risalto dato agli aspetti finora descritti, l’automazione resta quasi una “cenerentola”, pur costituendo forse la modalità più efficace e concreta oggi a disposizione.
L’automazione dei processi, spesso indicata con il termine “Business Process Automation” (BPA), consente l’utilizzo di tecnologie digitali per eseguire, gestire e ottimizzare le attività ripetitive e strutturate all’interno di un processo aziendale oltre a consentire di ottimizzare il tempo e la gestione dei task.
L’automazione può essere realizzata:
- a supporto dei processi manuali e ripetitivi per identificare i processi che possono essere automatizzati, come la raccolta di dati, l’elaborazione dei documenti o la gestione delle risorse. L’automazione libera risorse umane per attività più complesse e strategiche;
- tramite creazione di flussi di lavoro automatizzati, per migliorare l’efficienza operativa. Ad esempio, l’automazione può accelerare la gestione dei dati, ridurre gli errori umani e garantire la coerenza delle operazioni.
Sicurezza dei dati e comprensione del contesto
Prima di chiudere questa riflessione, un breve passaggio su sicurezza dei dati e comprensione del contesto.
La sicurezza dei dati prevede, tra gli accorgimenti di più semplice introduzione, il controllo degli accessi, per garantire che solo persone autorizzate possano accedere a determinati dati (personali e/o appartenenti alle particolari categorie di dati), oltre alla crittografia per proteggere i dati durante la trasmissione, lo stoccaggio e l’utilizzo, garantendone la sicurezza anche in caso di accessi non autorizzati.
Aumentando la circolazione dei dati grazie all’interoperabilità, è chiaro che serva un aumento di attenzione al tema della sicurezza informatica (oltre che della privacy, alla protezione del dato e alla sua riservatezza). Un sistema spento, non avrebbe di questi problemi, del resto non servirebbe a niente.
Conclusioni
In sintesi, sviluppare una cultura dei dati, promuovere l’interoperabilità e implementare l’automazione costituiscono pilastri fondamentali per migliorare il funzionamento di una PA.
Già questi tre elementi, se ben studiati e implementati, potrebbero portare un grosso miglioramento al funzionamento di ogni pubblica amministrazione, locale o centrale.
Sono, inoltre, fondamentali per preparare una qualsiasi PA all’adozione di sistemi e strumenti basati sull’intelligenza artificiale, assicurando che i dati siano gestiti in modo efficiente e sicuro.
In uno scenario ottimale, questo richiede la collaborazione delle PA e dei fornitori e le necessarie competenze e fondi per farlo.
Oggi grazie al PNRR, quei fondi a lungo attesi sono disponibili: l’occasione, quindi, è davvero unica, forse irripetibile, per preparare il terreno ad uso effettivo e virtuoso dell’IA per migliorare tutti i servizi resi disponibili a cittadini e imprese, ma anche i servizi interni del backoffice degli enti.
Ringraziamenti:
grazie a Morena Ragone per alcuni spunti di riflessione che hanno portato a questa stesura