La crescente sperimentazione da parte delle imprese delle nuove possibilità offerte dall’AI generativa ha trasformato la tecnologia in uno dei temi più caldi in azienda, a tutti i livelli, consigli di amministrazione compresi.
L’IA nelle pubbliche amministrazioni, una nuova frontiera
Questa dinamica si estende anche alle realtà del settore pubblico che stanno cercando di trarre vantaggio dall’AI per migliorare il servizio ai cittadini in modo quanto mai trasversale. Dalla semplificazione delle procedure burocratiche all’ottimizzazione delle risorse, passando per l’implementazione di sistemi predittivi per la pianificazione urbana e la gestione delle emergenze. L’orizzonte che si dischiude prospetta un panorama di possibilità fino a oggi inesplorate, delineando un percorso che – pur con tutte le cautele necessarie – si concentra principalmente sulle potenzialità trasformative di questa tecnologia. In questo contesto, l’AI può fungere da catalizzatore di innovazione e progresso all’interno della PA nell’immediato futuro, per un’amministrazione pubblica più efficiente, trasparente e inclusiva.
Tra i molti paesi che hanno già avviato iniziative in merito, si segnala la recente pubblicazione da parte dell’Agenzia per l’Italia digitale (AgID) della strategia al 2026 che per la prima volta affronta il tema dell’AI, fornendo indicazioni e principi generali che dovranno essere adottati dalle amministrazioni e declinati in fase di applicazione, tenendo in considerazione uno scenario in rapida evoluzione.
Miglioramento dei servizi e riduzione dei costi, analisi del rischio, trasparenza, responsabilità e informazione: questi solo alcuni tra i principi generali che il piano mette in evidenza e che le pubbliche amministrazioni devono considerare nel loro percorso verso l’adozione dell’intelligenza artificiale.
Si tratta di un ambito estremamente interessante, che non a caso le nostre organizzazioni stanno già iniziando a esplorare. Secondo uno studio condotto da The European House – Ambrosetti e Salesforce, l’Italia è il secondo paese europeo per numero di progetti nella PA che sfruttano l’intelligenza artificiale ed è il primo in fatto di implementazione.
L’AI generativa, in particolare per l’utilizzo di modelli linguistici di grandi dimensioni nel cloud, porta con sé problemi di fiducia, conformità dei dati e proprietà intellettuale. Le organizzazioni sono giustamente preoccupate che informazioni potenzialmente sensibili diventino di dominio pubblico o che si ottengano risposte non conformi a causa di modelli AI addestrati senza il giusto contesto.
In questo ambito, ci sono almeno tre punti da considerare per un’adozione efficace e soprattutto sicura dell’AI all’interno della pubblica amministrazione.
La necessità della sicurezza dei dati sensibili
Il primo punto riguarda i dati e l’accento posto dal piano sulla protezione e sicurezza del dato, alla base di qualunque approccio AI. Sebbene i servizi di AI disponibili pubblicamente siano interessanti per le aziende, questi si basano sulla condivisione di dati con servizi esterni, cosa molto spesso non praticabile per la natura sensibile di molti di essi, tra informazioni personali identificabili (PII), dati sensibili gestiti dalle amministrazioni e dati regolamentati, che sollevano giustamente problemi di privacy.
Un recente studio condotto da Cloudera con Coleman Parkes ha mostrato come l’84% dei responsabili della strategia e della gestione dei dati intervistati sia preoccupato di condividerli con terze parti per l’addestramento o la messa a punto di modelli di AI generativa, alludendo alla percezione di un ambiente ancora fuori controllo quando si tratta di privacy, sicurezza e conformità dei dati.
Invece di portare i dati verso l’intelligenza artificiale, dobbiamo fare in modo che l’intelligenza artificiale arrivi dove si trovano i dati. Si tratta di mantenere il predicato della sovranità del dato anche quando si tratta di intelligenza artificiale generativa, evitando quindi di esportare dati della Pubblica Amministrazione verso strumenti di AI generativa fuori dal perimetro di sicurezza dell’amministrazione stessa.
Tema che, nel settore pubblico, è ancor più fondamentale. Una violazione o una compromissione dei sistemi di AI può avere gravi conseguenze, mettendo potenzialmente a rischio i dati sensibili dei cittadini o addirittura interrompendo i servizi critici. Grazie alla disponibilità di approcci che coniugano completamente la sovranità del dato con la potenza degli strumenti di AI generativa, le Amministrazioni possono conciliare questo grande salto innovativo con la sicurezza dei dati dei cittadini.
La qualità dei dati al centro dell’Intelligenza Artificiale
Il secondo punto riguarda la correttezza delle informazioni generate, che parte sempre dalla qualità dei dati che vengono utilizzati dall’AI. L’AI generativa e i modelli linguistici di grandi dimensioni sono validi quanto i dati su cui sono stati addestrati. Questo significa che migliore è la qualità del dato di partenza e migliore sarà la qualità delle informazioni generate. Per ottenere questo, l’utilizzo in sicurezza dei dati delle varie Amministrazioni rappresenta un ottimo punto di partenza, per creare prodotti con il giusto contesto ed evitare le cosiddette allucinazioni (informazioni fittizie che sembrano realistiche).
Gli enti governativi devono assicurarsi che i dati utilizzati per l’addestramento dei modelli di AI siano di alta qualità e rappresentino accuratamente la vasta gamma di scenari e di dati demografici a cui cercano di rispondere. È fondamentale stabilire rigorose pratiche di governance per mantenerne l’integrità, la privacy e la conformità ai requisiti normativi. Le iniziative di data lakehouse forniscono alle amministrazioni pubbliche i mezzi per consolidare e gestire in modo sicuro il proprio patrimonio di dati, garantendone la disponibilità per le applicazioni di AI e mantenendo al contempo privacy e conformità.
La trasparenza degli algoritmi e l’importanza della governance
Il terzo aspetto riguarda la trasparenza degli algoritmi usati, importante per un uso consapevole della tecnologia in un contesto delicato come quello della pubblica amministrazione.
Qui entra in scena la governance, altro aspetto cruciale che non può essere trascurato. I sistemi di AI devono operare in un contesto che promuova pratiche etiche, trasparenza e responsabilità. I governi dovrebbero stabilire linee guida e regolamenti chiari sull’uso dell’AI, garantendo che gli algoritmi siano equi, imparziali e rispettosi dei diritti della privacy. La collaborazione tra agenzie governative, esperti del settore e organizzazioni della società civile può promuovere una diffusione responsabile dell’AI favorendo lo sviluppo di framework di riferimento per un’intelligenza artificiale etica.
È pensabile uno scenario in cui le aziende possano avere modelli propri, anche se si tratta di soluzioni di terze parti, integrate nelle proprie organizzazioni. Tuttavia, la possibilità di impiegare Large Language Model trasparenti e accessibili fornisce uno strumento in più alla Pubblica Amministrazione per governare una trasformazione in tutti i suoi aspetti, compresi quelli più delicati afferenti all’area dell’etica, della parità di genere, della riservatezza, dell’equità e di tutto ciò che può potenzialmente minare il risultato ottenuto in maniera automatica da un algoritmo di AI.
La fiducia come elemento chiave nell’adozione dell’IA
Affinché questi modelli AI abbiano il giusto successo a livello aziendale è fondamentale che siano accompagnati dalla fiducia, aspetto che deriva da tutti gli elementi che abbiamo considerato finora, non ultima la fiducia nei dati a disposizione dell’organizzazione.
In questo senso, è fondamentale l’adozione di piattaforme che consentano una visione dei dati realmente olistica, che ne consideri tutte le tipologie e potenziali collocazioni, tutte le caratteristiche e possibilità di utilizzo.
I responsabili IT e aziendali sono comprensibilmente entusiasti del potenziale di trasformazione delle applicazioni GenAI. Dal miglioramento del servizio clienti alla gestione della catena di approvvigionamento senza soluzione di continuità e al DevOps potenziato: non sorprende che il 98% dei dirigenti globali sia d’accordo sul fatto che i modelli di base dell’AI svolgeranno un ruolo importante nella loro strategia nei prossimi 3-5 anni. Ma prima che qualcuno si lasci trasportare troppo, c’è ancora molto lavoro da fare. Un’architettura dei dati moderna deve essere il punto di partenza di qualsiasi progetto di AI di successo. Poi è il momento di perfezionare, identificare, sperimentare, scalare e ottimizzare. Il futuro ci aspetta.
Il futuro dell’IA nel settore pubblico
Affrontando gli aspetti critici della sicurezza, della governance e dell’affidabilità dei dati, la pubblica amministrazione può sviluppare soluzioni di AI affidabili, trasparenti e in linea con la sua missione di servire meglio il pubblico.