IA responsabile

Trasparente, spiegabile e interpretabile: solo così l’IA farà bene a tutti



Indirizzo copiato

Sviluppare sistemi di IA trasparenti e le cui decisioni siano interpretabili e spiegabili è essenziale non solo per una questione di conformità a regolamenti come l’AI Act, ma anche per aumentare la fiducia di mercati, enti pubblici e privati. Normative chiare e tecnologie avanzate sono cruciali, ma serve anche cambiamento socio-culturale

Pubblicato il 21 mar 2024

Sara Mancini

Senior Manager di Intellera Consulting

Elena Maran

Global Head Financial services di Modulos.ia

Massimo Pellegrino

Partner di Intellera Consulting

Alberto Venditti

Associate di Intellera Consulting



L’intelligenza artificiale ci deve una spiegazione

Tra le molteplici sfide poste dall’Intelligenza Artificiale, una delle più rilevanti riguarda la trasparenza, l’interpretabilità e la spiegabilità delle decisioni prese da sistemi di questo tipo. Di norma, infatti, per le decisioni che influiscono in maniera significativa sulle condizioni di vita delle persone, e in generale sul benessere sociale e ambientale, ci si aspetta che la loro motivazione possa essere ragionevolmente compresa. 

Da questo punto di vista, i sistemi di IA agiscono spesso sulla base di algoritmi e logiche che risultano poco chiari – se non difficili – da comprendere per gli esseri umani. Da ciò, deriva un effetto black-box con due possibili effetti: da un lato, una scarsa fiducia nell’utilizzarsi ai sistemi di IA, dall’altra un’eccessiva dipendenza dagli stessi vista la rapidità con cui decisioni complesse vengono prese. In ogni caso, se non controllate, le conseguenze che scaturiscono da questi scenari opposti possono risultare estremamente dannose per gli individui[1].

Per questa ragione, è essenziale di sviluppare sistemi di IA trasparenti e le cui decisioni siano interpretabili e spiegabili, non solo per risultare conformi rispetto ai principali regolamenti – come l’AI Act – che regolano l’IA, ma anche per aumentare la fiducia di mercati, enti pubblici e privati nei confronti delle innovazioni apportate dall’IA stessa.

Trasparenza, spiegabilità e interpretabilità secondo l’AI Act

L’AI Act si è prefissato l’obiettivo di fornire un quadro normativo univoco e preciso per regolare l’utilizzo dei sistemi di IA in modo da renderlo etico, sicuro e affidabile. Tra le predisposizioni previste, introduce obblighi di trasparenza applicabili per le applicazioni e i sistemi che interagiscono in modo diretto con gli esseri umani (per esempio chatbot), generano o manipolano contenuti (“deep fake”) e sono utilizzate per rilevare le emozioni o determinare l’associazione a categorie (sociali) sulla base di dati biometrici. Questi requisiti di trasparenza si applicano trasversalmente a tutte le applicazioni che rispettano tali criteri, anche se presentano diversi livelli di rischio tra quelli indicati nell’AI Act stesso (rischio minimo o assente, livello di rischio per requisiti di trasparenza, rischio alto, rischio inaccettabile).

A queste predisposizione si aggiunge l’articolo 13 dell’AI Act, il quale si concentra sugli aspetti di trasparenza e sulle informazioni da procurare dai fornitori di sistemi di IA definiti ad alto rischio. In questo caso, per trasparenza si intende il fatto che i sistemi ad alto rischio vengano progettati e sviluppati in modo tale da rendere i fornitori in grado di interpretare l’output del sistema e usarlo in maniera appropriata. Maggiore la rischiosità del sistema, maggiore sarà la necessità di assicurare il rispetto dei requisiti di trasparenza in questione.

L’AI Act, dunque, stabilisce norme ad hoc per quanto riguarda tre concetti fondamentali: trasparenza, interpretabilità e spiegabilità. Secondo il regolamento, sistemi di IA trasparenti consentono agli stakeholder di validare i processi decisionali degli stessi, rendendoli altresì capaci di individuare eventuali bias che possano impedire al sistema di rimanere conforme rispetto a norme legali e requisiti etici. Allo stesso modo, sistemi di IA interpretabili consentono agli esseri umani non solo di comprendere i risultati dei processi decisionali, ma anche anticipare e, di conseguenza, prevenire potenziali errori. In conclusione, per quanto riguarda la spiegabilità, la stessa risulta critica nel momento in cui il sistema di IA genera un impatto significativo – e rischioso – per gli stakeholder che si confrontano con lo stesso. In questo senso, la spiegabilità supporta gli stakeholder, includendo user ed enti regolatori, a comprendere meglio le decisioni prese dal sistema stesso.

Appare quindi chiaro che i principi sopracitati – trasparenza, spiegabilità ed interpretabilità – siano correlati tra loro, essendo spiegabilità ed interpretabilità delle decisioni prese dai sistemi di IA condizioni senza le quali non può essere raggiunta totale trasparenza dei sistemi medesimi.

Se però i concetti di trasparenza, interpretabilità e spiegabilità sono citati e richiesti come requisiti, il quadro normativo non ne fornisce una definizione univoca e chiara. Per esempio, l’AI Act non prevede specifiche predisposizioni in merito alla spiegabilità, alla quale si fa invece riferimento solo come componente – insieme alla tracciabilità – che contribuisce a garantire trasparenza dei sistemi di IA, come anticipato in precedenza.

Una possibile definizione di Explainable AI (XAI) è stata invece avanzata dall’European Data Protection Supervisor che la declina come la capacità dei sistemi di IA di fornire spiegazioni chiare e comprensibili riguardo alle loro azioni e decisioni. L’obiettivo principale perseguito dall’Explainable AI è di rendere il comportamento di questi sistemi comprensibile per gli umani, fornendo indicazioni chiare e precise sui meccanismi alla base dei loro processi decisionali[2].

Pertanto, è opportuno sottolineare la necessità urgente di avere, a livello regolatorio, definizioni allineate tra loro dei tre principi. Una nostra interpretazione del concetto più ampio di trasparenza è offerta di seguito.

La trasparenza nell’Intelligenza Artificiale

La trasparenza si afferma come principio fondamentale per un’Intelligenza Artificiale etica, posizionandosi al fianco di interpretabilità e spiegabilità. Essa rappresenta probabilmente l’aspetto più immediato e meno complesso da comprendere, rivestendo un ruolo decisivo nella percezione e nell’interazione degli utenti con i sistemi di IA.

La trasparenza costituisce il pilastro che assicura agli utenti la consapevolezza di interagire con sistemi di IA, indipendentemente dalla complessità, da semplici chatbot fino ad avanzati sistemi di analisi predittiva. Il riconoscimento dell’intervento dell’IA è fondamentale per instaurare un rapporto di fiducia con gli utenti. Tuttavia, la trasparenza implica anche la chiarezza riguardo alle fonti dei dati impiegati dall’IA, le modalità del loro utilizzo, le relative questioni di copyright ed il processo decisionale sottostante.

Oltre la divulgazione: livelli di trasparenza

Anche se la trasparenza può apparire meno articolata rispetto all’interpretabilità o alla spiegabilità, il livello di trasparenza necessario varia significativamente a seconda del contesto di impiego dell’IA. Vi sono quindi diversi aspetti da tenere in considerazione:

  • Decisioni di rilevante importanza: nei casi in cui i sistemi di IA siano responsabili di decisioni di grande impatto, come nei settori del credito finanziario o della diagnostica medica, è essenziale che le persone siano informate non solo dell’utilizzo dell’IA ma anche dei processi decisionali sottostanti. Risulta fondamentale comunicare gli sforzi compiuti per garantire un’equità di trattamento e prevenire qualsiasi forma di discriminazione.
  • Trasparenza nell’uso dei dati: per i sistemi di IA addestrati su ampi set di dati, è vitale garantire la trasparenza relativamente all’origine dei dati e alle strategie adottate per neutralizzare i bias. Ciò assicura che le raccomandazioni o le decisioni dell’IA siano il più possibile giuste e non discriminatorie.
  • Adattabilità della trasparenza al contesto: la necessità e il livello della trasparenza variano in base all’applicazione specifica dell’IA. Per esempio, nell’ambito sanitario, l’IA potrebbe dover porre enfasi sulla protezione della privacy dei dati, mentre in sistemi come i veicoli autonomi l’accento potrebbe essere posto sulla spiegazione delle scelte relative alla sicurezza.
  • Adattabilità della trasparenza al profilo degli interlocutori: la complessità delle spiegazioni fornite deve essere calibrata in base al tipo di interlocutore, affinché ogni spiegazione sia realmente comprensibile e funzionale, assicurandosi che siano accessibili a chiunque indipendentemente dal livello di competenza tecnica. Ad esempio, il livello di dettaglio e il linguaggio usato per comunicare le informazioni che necessita un cittadino sul chatbot sviluppato dal comune di appartenenza sono notevolmente diverse da quelle che richiede un auditor di un’autorità di controllo. A questo si aggiunge anche la mancanza di una definizione chiara e univoca di “spiegazione comprensibile per l’interlocutore”, ovvero di fattori e strumenti di misurazione di quanto una spiegazione sia effettivamente ritenuta comprensibile da chi la riceve.

Distinguere tra interpretabilità e spiegabilità

Come già sottolineato, interpretabilità e spiegabilità sono due concetti spesso associati, ma che servono scopi diversi e rispondono a esigenze differenti all’interno dei sistemi di IA. Quali sono le differenze e la loro importanza nel rendere i sistemi di IA più comprensibili e responsabili?

Interpretabilità

L’ interpretabilità si riferisce alla capacità di una persona di comprendere il funzionamento interno di un sistema di IA. Un modello di IA interpretabile è caratterizzato da un processo decisionale che l’utente può facilmente seguire e comprendere. Questo si traduce in un funzionamento del modello sufficientemente trasparente per permettere agli utenti di discernere come gli input siano trasformati in output. Modelli come gli alberi decisionali e le regressioni lineari, per esempio, sono naturalmente interpretabili, poiché consentono di osservare direttamente il percorso decisionale e l’effetto delle varie variabili. La visibilità del ragionamento di un sistema di IA incrementa la propensione degli utenti a fidarsi delle sue indicazioni e a interagire con esso con serenità.

Spiegabilità

La spiegabilità, invece, si concentra sulla capacità di articolare gli esiti di un sistema di IA in termini comprensibili all’uomo. È particolarmente pertinente per i modelli di maggiore complessità, come le reti neurali profonde, i cui processi decisionali non sono intrinsecamente trasparenti. La spiegabilità si avvale dell’impiego di strumenti e metodi supplementari volti a fornire chiarimenti su come il sistema di IA giunga a determinate decisioni o risultati. Ciò può includere la sintesi dei fattori più determinanti in una scelta o l’uso di rappresentazioni grafiche per illustrare il ragionamento del modello. L’obiettivo della spiegabilità è di colmare il divario tra la complessità dell’IA e la comprensione umana, consentendo agli utenti di apprendere le motivazioni dietro le decisioni dell’IA senza la necessità di addentrarsi nei dettagli complessi dell’architettura del modello.

Sebbene interpretabilità e spiegabilità siano concetti distinti, essi si integrano armoniosamente nel perseguire un’IA trasparente e degna di fiducia. L’interpretabilità è l’ideale ma non sempre fattibile, specialmente con modelli avanzati che garantiscono un’alta precisione o prestazioni superiori. In tali circostanze, la spiegabilità diventa indispensabile, offrendo un percorso per comprendere e riporre fiducia nelle decisioni dell’IA, anche quando la struttura interna del modello si presenta complessa. Diventa quindi fondamentale l’adozione di strategie volte a potenziare l’interpretabilità e la spiegabilità concepite per superare la complessità intrinseca dei modelli di IA e soddisfare il bisogno degli utenti di seguire e comprendere il processo decisionale. Di seguito, sono presentate alcune delle metodologie più efficaci a questo scopo.

Strategie per rafforzare l’interpretabilità

Le strategie per accrescere l’interpretabilità dei sistemi di IA sono diverse.

  • Rilevanza delle Variabili: un metodo diffuso consiste nell’impiego di modelli capaci di evidenziare il peso delle diverse variabili nella formulazione di una decisione. Gli alberi decisionali, ad esempio, illustrano quali fattori e condizioni portano a determinati risultati, facilitando la comprensione della logica decisionale dell’IA.
  • Modelli Semplificati: laddove possibile, si prediligono modelli più semplici come le regressioni lineari o logistiche, per migliorare la chiarezza interpretativa. Questi modelli permettono di visualizzare con maggiore facilità la correlazione tra le variabili di ingresso e il risultato finale, pur potendo talvolta compromettere la precisione in nome della semplicità.
  • Sistemi a Regole Esplicite: un ulteriore approccio si basa sull’utilizzo di sistemi regolamentati da norme ben definite, che rendono il processo decisionale totalmente trasparente. La chiarezza delle regole impiegate assicura un alto grado di interpretabilità delle scelte operate dal sistema.

Strategie per ampliare la spiegabilità

Diverse sono le strategie per ampliare la spiegabilità.

  • Spiegazioni Locali Interpretabili Indipendenti dal Modello (LIME): LIME è una tecnica che semplifica modelli complessi in versioni più elementari e localmente interpretabili al fine di giustificare previsioni singole. Questo strumento aiuta a capire le ragioni di determinate scelte dell’IA, mettendo in risalto i fattori più determinanti.
  • Valutazioni additive di Shapley (SHAP): i valori SHAP forniscono una stima complessiva dell’importanza delle singole caratteristiche basata sui principi della teoria dei giochi. Questa metodologia consente di approfondire il contributo di ciascun elemento alla previsione complessiva, favorendo una più dettagliata comprensione del modello.
  • Spiegazioni controfattuali: Queste analisi esplicano come variazioni specifiche degli input possano influenzare il risultato finale. Presentando situazioni in cui minime modifiche generano esiti differenti, le spiegazioni controfattuali permettono di delineare i confini operativi dell’IA e le condizioni che ne guidano le operazioni.

Compromessi e limitazioni

Addentrandosi nel tema dell’incremento dell’interpretabilità e della spiegabilità nei sistemi di IA, diventa imprescindibile riconoscere i compromessi e le limitazioni che questi miglioramenti comportano. Bilanciare la complessità dei modelli con l’interpretabilità e la spiegabilità è una sfida complessa che può impattare sensibilmente su prestazioni e funzionalità dei sistemi di IA.

Numerose organizzazioni, in particolare quelle operanti in settori regolamentati quali il bancario e il sanitario, hanno implementato politiche interne che limitano la complessità dei modelli per garantire un’adeguata interpretabilità. Le banche, ad esempio, potrebbero optare per modelli basati su alberi decisionali o su regressione rispetto a reti neurali più elaborate, data la maggiore trasparenza e la facilità con cui è possibile tracciare e comprendere le decisioni. Sebbene questa strategia sia favorevole all’interpretabilità, può ridurre le prestazioni, poiché i modelli più semplici potrebbero non essere in grado di rilevare le sfumature e i pattern che modelli più avanzati possono invece identificare.

La ricerca dell’interpretabilità e della spiegabilità si scontra spesso con la necessità di mantenere l’accuratezza e le prestazioni del modello. Modelli avanzati come le reti di deep learning forniscono capacità predittive di alto livello, ma la loro interpretazione è complessa. Questa difficoltà nasce dalla natura “black box” di tali modelli, in cui il processo decisionale non risulta trasparente né immediatamente intelligibile.

Infine, è importante considerare come le tecniche attuali per migliorare interpretabilità e spiegabilità non siano esenti da limitazioni. Nonostante tecniche come LIME e SHAP abbiano apportato significativi avanzamenti nell’interpretazione di modelli complessi, esse presentano delle restrizioni. Queste spiegazioni sono frequentemente delle approssimazioni e potrebbero non riflettere in maniera esaustiva il processo decisionale del modello. Inoltre, la generazione di tali spiegazioni può richiedere un elevato carico computazionale e non sempre si rivela fattibile in tempo reale.

Integrare spiegabilità, trasparenza ed equità nell’IA

Un pilastro dell’adozione responsabile dell’IA è assicurare che i sistemi non siano solamente trasparenti e intellegibili, ma anche improntati all’equità. L’interrelazione tra spiegabilità, trasparenza ed equità è fondamentale per il rispetto degli standard etici nelle applicazioni di IA, influenzando direttamente il livello di fiducia degli utenti in queste tecnologie.

L’incremento della spiegabilità e della trasparenza può promuovere l’equità tramite metodologie e pratiche atte a mitigare i bias e assicurare risultati imparziali. Tale incrementando permette agli stakeholder di analizzare più efficacemente i fattori che influenzano le decisioni dell’IA e quindi identificare e rettificare eventuali bias che il sistema di IA potrebbe aver imparato o generato, garantendo che i sistemi di IA funzionino in maniera equa. Ciò non solo rafforza la fiducia degli utenti ma allinea le pratiche IA con gli standard etici e i valori sociali. Alcuni esempi comprendono:

  • Spiegazioni controfattuali: offrire spiegazioni controfattuali consente agli utenti di capire come variazioni specifiche negli input possano condurre a differenti risultati. Ciò facilita la trasparenza e permette di individuare casi in cui lievi modifiche possono annullare risultati discriminatori, promuovendo l’equità. Ad esempio, queste tecniche potrebbero rendere evidente che un sistema di IA categorizza come non adatta ad un prestino una donna con determinate caratteristiche, ma adatto un uomo con le stesse caratteristiche.
  • Analisi del contributo dei dati: netodologie quali l’analisi dell’importanza dei dati, a livello della singola osservazione, possono fornire dettagli su come determinate variabili possano portare a decisioni discriminatorie. Esaminando questi elementi, gli sviluppatori possono rilevare e correggere le caratteristiche che predispongono il modello a bias ingiusti nei confronti di determinati individui o gruppi.

I prossimi passi normativi e tecnologici

Intesa la relazione che lega i concetti di trasparenza, spiegabilità e interpretabilità, è possibile riflettere sui passi normativi e tecnologici da compiere per garantire che questi requisiti siano rispettati in tutte le differenti fasi del ciclo di vita dei sistemi di IA, a partire dal loro sviluppo fino alla loro dismissione.

In particolare, dal punto di vista normativo, avere una definizione chiara ed univoca dei tre concetti, con focus specifico sulla spiegabilità, supporterebbe sia gli sviluppatori che i regolatori di soluzioni di IA nel garantire conformità alle principali norme vigenti in ambito IA, AI Act su tutte. In questo modo, verrebbe incentivato lo sviluppo – ed il conseguente utilizzo etico e responsabile di soluzioni di IA sicure per tutti gli stakeholder coinvolti ed impattati dalle stesse.    

Allo stesso tempo, i recenti sviluppi tecnologici – in particolare per quanto riguarda i large language models – richiedono maggiore impegno in termini di trasparenza da garantire a fornitori e utilizzatori. Infatti, a tali sistemi vengono affidati compiti in misura sempre maggiore e che richiede la fornitura di informazioni precise e complete riguardo le modalità in cui esse sono svolte. Non risulta più essere solo sufficiente comunicare agli utenti di stare interagendo con sistemi di IA, ma è opportuno informare gli stessi circa tutti i meccanismi vigenti che hanno portato a compiere un’azione o a prendere una decisione specifica, oltre che informazioni sulle fonti e i dati di training, il trattamento dei diritti d’autore e dei dati di prompting fornite dagli utenti stessi. In questo contesto, garantire trasparenza diventa una sfida ancora più complessa.

Conclusioni

In conclusione, la chiara definizione normativa e l’adozione di tecnologie che promuovano la trasparenza sono passi essenziali per garantire un approccio etico e responsabile nell’implementazione e nell’utilizzo dei sistemi di Intelligenza Artificiale. Essi, però, devono essere accompagnati anche da un cambiamento socio-culturale che favorisca l’uso e la diffusione di tali tecnologie, intendendole come strumento di supporto e non osteggiandole come minacce in grado di sostituire l’imprescindibile componente umana.


[1] EDPS TechDispatch on Explainable Artificial Intelligence

[2] EDPS TechDispatch on Explainable Artificial Intelligence

Speciale PNRR

Tutti
Incentivi
Salute digitale
Formazione
Analisi
Sostenibilità
PA
Sostemibilità
Sicurezza
Digital Economy
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr

Articoli correlati