strategie

IA nella PA, cosa c’è e cosa manca nel Piano triennale 2024-2026



Indirizzo copiato

Le linee guida elaborate nell’ambito del Piano Triennale per l’informatica nella Pubblica Amministrazione 2024-2026 definiranno i passi metodologici e organizzativi che le pubbliche amministrazioni devono seguire per definire attività progettuali di innovazione mediante l’utilizzo di IA. Ma serve anche un piano per far ripartire una industria nazionale dell’ICT

Pubblicato il 30 apr 2024

Paolino Madotto

manager esperto di innovazione, blogger e autore del podcast Radio Innovazione



interoperabilità PA interoperabilità pubblica amministrazione digitale - cyberbalcanizzazione

Il Piano Triennale per l’informatica nella Pubblica Amministrazione 2024-2026 prevede una serie di obiettivi e strategie riguardanti l’intelligenza artificiale (IA).

IA nella Pubblica Amministrazione: gli obiettivi del Piano Triennale

Uno degli obiettivi principali è l’aumento della consapevolezza della Pubblica Amministrazione nell’adozione delle tecnologie di intelligenza artificiale (Obiettivo 5.4). Per raggiungere questo obiettivo, il Piano prevede la creazione di linee guida per promuovere l’adozione dell’IA nella Pubblica Amministrazione (RA5.4.1).

Queste linee guida definiranno i passi metodologici e organizzativi che le pubbliche amministrazioni devono seguire per definire attività progettuali di innovazione mediante l’utilizzo di IA.

Il Piano riconosce il potenziale dell’IA come tecnologia estremamente utile, o addirittura dirompente, per la modernizzazione del settore pubblico. Tra le potenzialità delle tecnologie di intelligenza artificiale si citano le capacità di automatizzare attività di ricerca e analisi delle informazioni semplici e ripetitive, aumentare le capacità predittive, migliorando il processo decisionale basato sui dati, e supportare la personalizzazione dei servizi incentrata sull’utente.

Inoltre, il Piano sottolinea l’importanza della trasparenza, della responsabilità, dell’inclusività, dell’accessibilità, della privacy, della sicurezza e della formazione e sviluppo delle competenze in relazione all’uso dell’IA. Le pubbliche amministrazioni sono chiamate a garantire la responsabilità e rendere conto delle decisioni adottate con il supporto di tecnologie di intelligenza artificiale, a fornire informazioni adeguate agli utenti, a rispettare i principi di equità, trasparenza e non discriminazione, a garantire la conformità dei propri sistemi di IA con la normativa vigente in materia di protezione dei dati personali e di sicurezza cibernetica, e a investire nella formazione e nello sviluppo delle competenze necessarie per gestire e applicare l’intelligenza artificiale in modo efficace nell’ambito dei servizi pubblici.

Strategie per incentivare l’uso dell’IA nella Pubblica Amministrazione

Il Piano Triennale per l’informatica nella Pubblica Amministrazione 2024-2026 prevede una serie di strategie per incentivare l’uso dell’intelligenza artificiale (IA) nella Pubblica Amministrazione tra le quali il Piano sottolinea l’importanza di una serie di principi generali per l’utilizzo dell’IA nella Pubblica Amministrazione. Tra questi principi, si includono il miglioramento dei servizi e la riduzione dei costi attraverso l’automazione dei compiti ripetitivi, l’analisi del rischio associato all’impiego di sistemi di IA, la trasparenza e la responsabilità nelle decisioni adottate con il supporto di tecnologie di IA, l’inclusività e l’accessibilità, la privacy e la sicurezza, e la formazione e lo sviluppo delle competenze necessarie per gestire e applicare l’IA in modo efficace nell’ambito dei servizi pubblici

Infine, il Piano riconosce l’importanza della standardizzazione nell’uso dell’IA, in linea con le politiche dell’Unione Europea in materia di intelligenza artificiale.

I target per i progetti di innovazione mediante l’intelligenza artificiale nella PA

Il Piano Triennale per l’informatica nella Pubblica Amministrazione 2024-2026 prevede diversi target per i progetti di innovazione mediante l’intelligenza artificiale (IA) nelle pubbliche amministrazioni. In particolare, entro il 2025, sono previsti almeno 150 progetti di innovazione mediante IA avviati. Questo numero dovrebbe aumentare a almeno 400 progetti avviati entro il 2026.

Inoltre, sempre il Piano prevede anche target per le iniziative di acquisizione di servizi di IA. Entro il 2025, sono previste almeno 100 iniziative di acquisizione di servizi di IA, e questo numero dovrebbe aumentare a almeno 300 iniziative entro il 2026.

Per supportare queste iniziative, si prevede la redazione di linee guida per il procurement di IA e per lo sviluppo di applicazioni di IA per la Pubblica Amministrazione entro il 2024 e di lanciare almeno 50 progetti nazionali nel 2025 e almeno 100 nel 2026.

Le inizitive sull’IA suggerite dal Piano

Si suggeriscono iniziative sull’intelligenza artificiale (IA) nella PA in vari ambiti.

In primo luogo, le pubbliche amministrazioni dovrebbero concentrare l’investimento in tecnologie di IA nell’automazione dei compiti ripetitivi connessi ai servizi istituzionali obbligatori e al funzionamento dell’apparato amministrativo. L’obiettivo è migliorare la qualità dei servizi e ridurre i costi.

Inoltre, le pubbliche amministrazioni dovrebbero analizzare i rischi associati all’impiego di sistemi di IA per assicurare che tali sistemi non provochino violazioni dei diritti fondamentali della persona o altri danni rilevanti.

Le pubbliche amministrazioni dovrebbero anche prestare particolare attenzione alla trasparenza e all’interpretabilità dei modelli di IA, fornendo informazioni adeguate agli utenti per consentire loro di prendere decisioni informate riguardo all’utilizzo dei servizi che sfruttano l’IA.

Le pubbliche amministrazioni dovrebbero assicurare che le tecnologie di IA utilizzate rispettino i principi di equità, trasparenza e non discriminazione, e adottare elevati standard di sicurezza e protezione della privacy per garantire che i dati dei cittadini siano gestiti in modo sicuro e responsabile.

Infine, le pubbliche amministrazioni dovrebbero investire nella formazione e nello sviluppo delle competenze necessarie per gestire e applicare l’IA in modo efficace nell’ambito dei servizi pubblici.

I rischi dell’IA che le pubbliche amministrazioni non devono sottovalutare

L’intelligenza artificiale (IA) nella Pubblica Amministrazione (PA) presenta vari rischi che devono essere attentamente gestiti. Uno dei principali rischi è la potenziale violazione dei diritti fondamentali della persona o altri danni rilevanti causati dall’impiego di sistemi di IA. Per mitigare questi rischi, l’AI Act stabilisce obblighi per fornitori e utenti e classifica i rischi in quattro diversi livelli: rischio inaccettabile (divieto), rischio elevato, rischio limitato e rischio minimo, altri criteri saranno definiti dalle norme nazionali che seguiranno.

Inoltre, afferma il piano, l’adozione dell’IA nella PA deve essere allineata con gli obiettivi a lungo termine dell’amministrazione digitale, che includono la digitalizzazione dei servizi, l’aumento dell’efficienza amministrativa e la promozione di una governance trasparente e accessibile. Se non gestiti correttamente, questi obiettivi potrebbero non essere raggiunti, portando a inefficienze e mancanza di trasparenza.

Infine, l’IA può comportare rischi legati all’automazione dei processi e all’offerta di nuovi servizi ai cittadini. Se i sistemi di IA adottati non sono affidabili o non sono controllati da apposite procedure di gestione del rischio, potrebbero sorgere problemi etici e sociali.

Le differenze tra modelli di intelligenza artificiale generativa in cloud e i modelli open source

Come sottolinea l’esperienza di INPS e presentata nel documento, i modelli di intelligenza artificiale (AI) generativa in cloud e i modelli open source presentano diverse differenze in termini di accessibilità, controllo, trasparenza e gestione dei dati.

I modelli in cloud, sempre secondo il piano, sono generalmente forniti da aziende private e richiedono l’accesso a servizi cloud per il loro utilizzo. Questi modelli sono costantemente addestrati e migliorati dal fornitore, ma questo processo avviene senza alcun controllo da parte dell’utente. Questo può compromettere la chiarezza nell’utilizzo dei dati nel processo di addestramento, in contrasto con il concetto di trasparenza e spiegabilità sostenuto dall’AI Act. Inoltre, l’uso di modelli in cloud solleva preoccupazioni sulla gestione dei dati sensibili, poiché fornire tali dati ai fornitori di servizi cloud può comportare rischi per la privacy e la confidenzialità dei dati.

D’altra parte, i modelli open source possono essere adottati su un’infrastruttura interna, o “on premise”. Questo permette un maggiore controllo sul modello e sul processo di addestramento, ma richiede infrastrutture ad elevate prestazioni. L’uso di modelli open source può anche contribuire a evitare la dipendenza da prodotti controllati da compagnie private straniere, sfruttando al meglio le competenze delle comunità globali.

Tuttavia, sia i modelli in cloud che quelli open source presentano sfide in termini di complessità e necessità di risorse ad alte prestazioni. Per ridurre il rischio di dipendenza dai servizi offerti dal mercato, è raccomandato che la soluzione adottata sia basata su modelli aperti e componenti intercambiabili e interoperabili. Il piano non menziona la questione dei costi del cloud ma va detto che questi possono aumentare notevolmente all’aumentare dell’utilizzo e, soprattutto, si può cadere in lock-in se una volta costruita una applicazione su un modello i prezzi aumentano non è affatto semplice e indolore cambiare modello.

L’esperienza INPS

Il documento riprende alcune iniziative rilevanti come quelle in INPS che ha accumulato una notevole esperienza nell’uso dell’intelligenza artificiale (IA) e dell’IA generativa. Ha sviluppato e implementato diversi progetti con l’obiettivo di migliorare i servizi offerti ai suoi utenti attraverso l’uso dell’IA.

Uno di questi progetti riguarda la classificazione e lo smistamento automatico della posta elettronica certificata (PEC). L’INPS riceve un volume di oltre 6 milioni di PEC all’anno, con una media di oltre 16.000 PEC al giorno. La soluzione basata su IA sviluppata dall’INPS consente uno smistamento automatizzato e rapido delle PEC in arrivo, senza richiedere l’intervento umano. Questo processo ha permesso all’INPS di risparmiare circa 40.000 ore di lavoro all’anno, che possono essere utilizzate per servire direttamente gli utenti.

Un altro progetto significativo riguarda la gestione delle richieste al servizio clienti. Il servizio clienti dell’INPS riceve circa 2,5 milioni di richieste all’anno. La soluzione basata su IA sviluppata dall’INPS consente di indirizzare correttamente oltre un terzo delle richieste direttamente all’operatore di secondo livello, risparmiando così un notevole quantitativo di lavoro umano da parte dell’operatore di primo livello.

Inoltre, l’INPS ha ricevuto un prestigioso riconoscimento da parte dell’IRCAI, il Centro di Ricerca Internazionale per l’Intelligenza Artificiale sotto l’egida dell’UNESCO, per uno dei suoi progetti. Questo progetto è stato classificato tra i 10 migliori progetti mondiali in ambito di Intelligenza Artificiale che supportano i 17 Obiettivi di Sviluppo Sostenibile dell’ONU.

E ancora emerge come l’INPS stia approcciando iniziative AI in ambito legale e contenzioso, dove si sta utilizzando l’AI per estrarre contenuti da documenti non strutturati e inserirli nei sistemi riducendo notevolmente il data entry necessario al personale.

Un progetto simile, relativo sempre all’estrazione dei dati dai documenti è “Smart Prof” per il quale l’INPS prevede di efficientare i processi di pagamento per il bonus asilo nido.

Le lezioni apprese dall’esperienza INPS

Dal punto di vista delle lezioni apprese “L’esperienza di INPS fornisce alcuni punti di attenzione ed elementi di riflessione per tutte le pubbliche amministrazioni in procinto di adottare soluzione basate su intelligenza artificiale.

La scelta del modello di intelligenza artificiale è determinante per ottenere risultati in linea con le specifiche esigenze. La Pubblica Amministrazione dovrebbe valutare:

o modelli predittivi non linguistici (e.g. Machine learning supervised o unsupervised);

o modelli linguistici per la comprensione ed il confronto di contenuti;

o modelli linguistici per la generazione di contenuti.

Le tre categorie di modelli hanno costi, complessità e maturità diverse.

Le pubbliche amministrazioni dovrebbero prediligere modelli predittivi non linguistici quando i dati sono strutturati ed i predittori della risposta sono un numero molto elevato e di tipologia eterogenea (e.g., controlli antifrode); dovrebbe invece prediligere modelli linguistici per la comprensione ed il confronto di contenuti in scenari di disambiguazione (e.g., instradamento di un problema, classificazione di un testo, estrazione di testo da un documento); infine, i modelli linguistici per la generazione di contenuti in scenari di conversazione con l’utenza (e.g., assistenti virtuali) e nel supporto decisionale (e.g., raccomandazione). Alcuni algoritmi potrebbero essere più indicati di altri in base al ruolo nella soluzione, di conseguenza è opportuno valutare il livello di personalizzazione e di flessibilità fin dall’inizio.

Le pubbliche amministrazioni che intendono realizzare servizi di tipo chat/voice bot basati su intelligenza artificiale di tipo generativo devono prevedere un processo di analisi documentale ed un’infrastruttura di raccolta dei documenti (base di conoscenza), che permetta di governarne in modo efficace, anche sotto il profilo organizzativo, l’acquisizione, l’aggiornamento, la “metadatazione” e la validazione dei contenuti, coinvolgendo gli esperti della materia in ogni fase del ciclo di vita del modello “linguistico” utilizzato.

Le pubbliche amministrazioni che intendono avvalersi di intelligenza artificiale di tipo generativo dovranno porre attenzione alla qualità dei contenuti, per ridurre al minimo il fattore aleatorio di “interpretabilità” del significato dei testi, mai del tutto neutralizzabile, l’effetto di “dispersione” dell’informazione, dipendente dalla ridondanza dei concetti, l’uso di termini e sigle tipiche di un contesto tematico, rischiose se non ben inquadrate. L’effettiva presenza delle informazioni all’interno delle fonti è determinante per la generazione di una risposta; la presenza di terminologia specialistica o assente dal vocabolario (es. acronimi, neologismi, forme letterarie particolarmente articolate o inusuali) va ridotta o adeguatamente tradotta in linguaggio aderente ai modelli linguistici su cui è addestrata l’intelligenza artificiale di tipo generativo (foundation model). Per fare un esempio, se l’addestramento del modello è stato eseguito su documenti dove il termine “pensione” è legato alle rendite da polizza ed il contesto di utilizzo del modello è la Previdenza Sociale risulterà di particolarmente importante “correggere” nella soluzione (tipicamente nel prompt engineering, durante la fase di tuning) come il termine “pensione” va utilizzato.

I contenuti utilizzati dall’intelligenza artificiale di tipo generativo devono essere autorizzati da fonti autorevoli e competenti, ovvero deve essere esplicitamente inibita (tipicamente nel prompt engineering) ogni forma di “creatività” cui tendenzialmente mirano i modelli linguistici di tipo generativo, poiché questi hanno, in generale, l’obiettivo di ricostruire un senso compiuto e realistico di una conversazione, non quello di riportare la realtà dei fatti. Opportuno, inoltre, che le fonti siano riportate direttamente nella risposta fornita dalla chatbot/voice bot , oppure siano tracciate dietro le quinte, e nel caso recuperabili.

Le Pubbliche Amministrazioni che intendono avvalersi di intelligenza artificiale di tipo generativo devono costruire un proprio Framework di Valutazione della bontà delle “Risposte”, basato su un numero significativo di “Domande”, suddivise per tematica, ed un numero di indicatori puntuali di valutazione di tipo sia qualitativo che quantitativo. Parte di tale Framework di Valutazione è il meccanismo attraverso cui sono raccolti i feedback dal Cittadino, utili a stabilire il grado di affidabilità dei risultati ed a migliorare il modello.

Per ridurre il rischio di lock-in dai servizi offerti dal mercato è raccomandato che la soluzione adottata sia basata su modelli aperti e componenti intercambiabili e interoperabili, nello specifico è raccomandato adottare modelli più maturi e meno costosi per realizzare le componenti della soluzione più stabili e semplici di funzionamento, quindi isolare le componenti della soluzione sulle quali confrontare tra loro modelli diversi, applicando la competizione tra tecnologie sui compiti più complessi e sfidanti, coinvolgendo anche produttori di AI generativa di nicchia.

Nel presentare al Cittadino una soluzione di Assistente Virtuale basata su intelligenza artificiale di tipo generativo il Cittadino deve essere informato su alcuni aspetti:

  • Il Cittadino deve essere informato che la qualità della risposta dipende dalla qualità della sua domanda. Domande corte e poco contestualizzate metteranno in difficoltà l’assistente virtuale che, in prima battuta, ha necessità di recuperare il contesto;
  • Il Cittadino deve essere informato che le risposte potrebbero contenere errori e, lì dove si siano già raccolti dei feedback, fornendo la percentuale statistica.

Nel processo di interazione tra Cittadino e Assistente Virtuale basato su intelligenza artificiale di tipo generativo deve essere applicata una strategia di comunicazione che permetta al Cittadino di interloquire per avere risposte personalizzate, usando un contesto di risposta che, nel corso della conversazione, deve potersi arricchire di informazioni. Rispetto ai chat/voice bot tradizionali, che sono basati su flussi di dialogo “rigidi” (what if) in questo caso sono necessarie metodologie per orientare il dialogo prevedendo punti di consolidamento (congestion), dove può essere l’Assistente virtuale a porre domande e suggerimenti.”

L’attenzione del Piano triennale verso PMI e startup

Sul tema dell’Intelligenza Artificiale, il piano triennale ha il merito di spronare la PA a iniziare un percorso di investimento e di riportare alcune interessanti esperienze. Se le iniziative fossero finanziate adeguatamente come promesso, il piano potrebbe trasformarsi in un potente stimolo sul fronte della domanda.

Sul piano triennale c’è anche una certa attenzione alle PMI e alle startup indicando la necessità di “Supportare e contribuire a realizzare un ambiente florido di micro, piccole e medie imprese è un ulteriore fattore di sostegno all’innovazione che, in una logica di crescita integrata sia nel pubblico che nel privato, accelera l’economia, come dimostrato in altri Paesi in cui questo segmento è stato sviluppato con successo.

Tale approccio è volto a: i) suggerire un rafforzamento dell’adozione di politiche specifiche per le micro, piccole e medie imprese, per favorirne il finanziamento e l’accesso nella PA, ii) aumentare la digitalizzazione della Pubblica Amministrazione; iii) favorire e rafforzare la concorrenza tutelando le MPMI e migliorando ancora il processo già in atto di modifiche di alcune norme sugli appalti; iv) rimodulare gli incentivi fiscali per le aziende modellandoli sulle specificità delle piccole e medie imprese; v) intervenire sul sistema scolastico per incentivare la creazione di professionisti dell’innovazione.” Si indica lo strumento degli appalti innovativi come lo strumento per incrementare la partecipazione di PMI e startup con un target dal 2024 al 2026 della presenza del 50% di PMI e startup che partecipano alle gare.

La necessità di un piano per far ripartire una industria nazionale dell’ICT

Apparentemente tutto bene e forse il piano triennale non poteva dire di più. Tuttavia, da qualche parte manca un piano per far ripartire una industria nazionale dell’ICT. Ormai le grandi aziende ICT completamente italiane sono ridotte al minimo e quelle piccole non trovano spazi adeguati in molte realtà pubbliche e private.

Sempre più spesso le PMI sono utilizzate come manovalanza a costo più basso dai system integrator più grandi ma fanno fatica a farsi scegliere dalla PA e dalle grandi aziende (e purtroppo il target di partecipazione alle gare sopra indicato non è da solo sufficiente). In particolare, sull’Intelligenza Artificiale il rischio è che il piano diventi un menù predisposto per aziende, prodotti e servizi stranieri. E il problema non è tanto la sovranità delle applicazioni di AI ma è il ruolo che si dà il nostro Paese nel contesto nazionale ed europeo. Mentre Francia e Germania stanno costruendo realtà importanti internazionali noi rischiamo di diventare il mercato dove altri si fanno le ossa. Questo problema non si supera solo finanziando la domanda e in parte l’offerta ma anche con un salto culturale.

Spesso la PA nell’affidare i progetti di innovazione ragiona in modo “difensivo” preferendo brand che la garantiscano che se si sbaglia comunque si è sbagliato con un grande brand[1] rispetto ad aziende che hanno capacità, competenza e anche esperienza perché magari formate da persone con molti anni alle spalle. È un approccio comprensibile e umano ma se il nostro Paese vuol avere un ruolo nel futuro è necessario che dai più alti livelli della politica fin all’ultimo funzionario ci sia un maggiore orientamento al “rischio”. Sarebbe necessario che negli obiettivi del management venga tenuto conto e anche premiato un certo livello di rischio di affidare progetti a PMI e startup, un impegno maggiore nel gestire progetti con aziende più piccole ma che possono offrire livelli di servizio, customizzazione, attenzione che le grandi non riescono a dare.

Dal punto di vista invece della tecnologia nel settore dell’AI generativa abbiamo un ulteriore problema, i modelli parlano principalmente inglese, i modelli multilanguage provengono sempre più spesso da aziende francesi e tedesche. Se le nostre imprese e la PA non supportano le nostre imprese di AI (ma anche ICT) a fare esperienza e investire in prodotti e soluzioni in lingua italiana avremo prodotti linguisticamente meno ricchi e meno adatti a soddisfare le esigenze dei progetti e meno aziende nazionali capaci di creare prodotti e soluzioni da esportare all’estero.

L’idea diffusa tra le big-tech sembra essere quella che la tecnologia e le competenze le hanno loro e il ruolo nostro (come Paese e come clienti) è quello di utilizzare prodotti pre-fabbricati, questo non è un bene per noi perché incentiva i nostri migliori talenti ad andar fuori dal Paese e ci lascia in una condizione di sudditanza tecnologica europea che va superata e non è un bene nemmeno per gli Stati Uniti dove le big tech operano, perché riducendo la varietà del mercato si limita l’innovazione e la crescita positiva di nuove realtà che aiutino nella sfida globale sulla leadership delle tecnologie.

Conclusioni

Il piano prevede la stesura da parte di AGID e di altri soggetti di linee guida e altre indicazioni per lo sviluppo applicativo in ambito AI, l’ideale che in questi documenti si faccia una riflessione non solo di carattere tecnico su come realizzare software o gestire dati (elementi molto importanti) ma anche su come incentivare concretamente la domanda a scegliere PMI e startup che hanno investito e che operano da anni su questo settore. Finanziare le startup è sicuramente utile ma se non si contrattualizzano e provano sul campo, facendogli fare esperienza e “sbucciare le ginocchia” non si farà crescere un comparto così vitale per l’economia. Nessun paese avanzato può vivere senza un settore ICT autonomo e in grado di collaborare con altre aziende in una posizione non subalterna e questo, a lungo termine, è un bene per tutti. Bisogna solo prediligere il futuro al trimestre in borsa.


[1] e dunque l’errore non conta, mentre con una PMI si rischia penalizzazioni quando dovrebbe essere non dico il contrario ma almeno premiare il coraggio

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4