nuove frontiere

Modelli multimodali: cosa fare con l’IA che fonde linguaggio e immagini



Indirizzo copiato

I modelli multimodali combinano linguaggio, visione e audio per offrire un’IA generativa avanzata. Possono fornire informazioni, assistenza e avere molteplici applicazioni, ma richiedono dati culturalmente diversificati e devono affrontare rischi di privacy e bias culturali. Lo stato dell’arte e i possibili sviluppi

Pubblicato il 1 feb 2024

Bernardo Magnini

Fondazione Bruno Kessler, Trento



tour virtuali trasformazione digitale

Sono l’ultima frontiera dell’IA generativa, la tecnologia non è ancora consolidata, ma già lasciano intravedere enormi potenzialità: sono i large multimodal model (LMM), in grado di combinare le capacità della comprensione del linguaggio, della computer vision e del riconoscimento dell’audio in un unico modello. La artificial general intelligence (AGI) sta facendo un altro, forse decisivo, passo in avanti.

Modelli multimodali: immersi nel mondo reale

Mi trovo in giro per Roma. Scatto una fotografia ad una fontana in stile barocco che non avevo mai notato, chiedo di cosa si tratta e scopro che è una delle Quattro Fontane, che si trovano all’incrocio tra Via delle Quattro Fontane e Via del Quirinale a Roma. È stata realizzata da Domenico Fontana e Pietro da Cortona, tra il 1588 e il 1593, e rappresenta il fiume Aniene, che è riconoscibile dalla figura di una divinità che regge una cornucopia, simbolo di abbondanza e ricchezza, da cui sgorga l’acqua.

Sto usando GPT-4 [1] con le nuove funzionalità di comprensione delle immagini (nome tecnico GPT-4 with Vision), introdotte da OpenAI a partire dal 14 dicembre 2023. Con buona probabilità si tratta del modello di intelligenza artificiale generativa più potente oggi in circolazione. In fase di addestramento il modello ha “visto” diverse migliaia di miliardi di parole e circa un miliardo di immagini, ognuna con una descrizione del suo contenuto. Sono i large multimodal model (LMM) e mettono insieme le capacità dei modelli del linguaggio (large language model – LLM) e dei modelli che interpretano e generano immagini (large vision model LVM).

Finalmente, grazie alla comprensione delle immagini, i modelli del linguaggio possono calarsi (grounding) nel mondo reale. Viene naturale immaginare GPT-4 with vision collegato alla fotocamera del cellulare: può vedere ciò che accade intorno a noi, sia che ci troviamo in un ambiente chiuso o all’aperto, può darci informazioni sull’ambiente, ma anche dare consigli su come meglio risolvere un problema seguendoci passo passo (ad esempio riparare una ruota bucata). Può essere uno strumento di grande aiuto per una persona (pensiamo ai non vedenti), ma, in prospettiva, sarà l’intelligenza che potrà pianificare e guidare le azioni di un robot in un ambiente reale. Fino ad ora non era possibile: anche i più potenti modelli generativi (ad esempio ChatGPT) non hanno “sensi” in grado di catturare cosa sta avvenendo nel mondo reale. Dunque, un progresso enorme, almeno sulla carta.

Per adesso le modalità sono due: linguaggio e immagini statiche, ma alcuni recenti LMM possono interpretare il contenuto di brevi video (GPT-4 non ha ancora aperto questa funzionalità, anche se è stata annunciata). Qui la tecnologia è veramente agli inizi: il video viene scomposto nei suoi fotogrammi (frame), dei quali il modello riesce a considerarne solo una piccola frazione, nell’ordine di poche decine, selezionati in base della loro rilevanza con la richiesta dell’utente. Ad esempio, se chiedo quante persone ci sono in una ripresa in cui le persone compaiono solo alla fine, è ragionevole che i frame siano selezionati solamente in quella porzione di video. Anche se ancora in modo approssimato, i video introducono nel modello multimodale la dimensione temporale. I fotogrammi sono infatti considerati nella loro sequenza temporale, e quindi, a differenza delle immagini, l’ordine con cui vengono analizzati è rilevante. Pensiamo alla immensa quantità di conoscenza procedurale che il modello può imparare dai video: quali micro-azioni si compiono per accendere e spegnere la luce in una stanza, quali movimenti si fanno, e in quale ordine, per aggiustare la ruota di una bicicletta, come ci si comporta quando si deve pagare la spesa in un supermercato?

Modelli multimodali: come funzionano

Ma come funziona l’accoppiamento di testi e immagini in un modello multimodale? L’architettura più utilizzata prevede che un modello per solo linguaggio funzioni come “pivot” per le altre modalità: in sostanza, il contenuto delle immagini viene aggiunto ad un modello del linguaggio preesistente. Per ottenere questa fusione l’immagine deve essere convertita in una rappresentazione vettoriale (embedding) compatibile con la rappresentazione vettoriale di una frase. In pratica, immagini e descrizioni delle immagini devono posizionarsi nello stesso spazio semantico. Per ottenere rappresentazioni omogenee l’immagine viene scomposta in un certo numero di zone, ad esempio un reticolo di nove zone, tre x tre. Ogni zona dell’immagine viene trasformata in un vettore con lo stesso numero di dimensioni dei vettori usati per rappresentare le parole nel modello del linguaggio. Il risultato di questa fase, l’encoding, è che immagini e frasi si possono ora posizionare nello stesso spazio geometrico, e che possiamo calcolare la distanza semantica tra loro.

Durante la fase di apprendimento (training) l’immagine e la sua descrizione vengono passate in modo indipendente rispettivamente all’encoder visuale e al modello del linguaggio, cioè senza sapere quali siano gli accoppiamenti corretti. Tramite la tecnica del contrastive learning, un tipo particolare di deep learning, il modello impara a posizionare la rappresentazione vettoriale di una descrizione vicino alla sua corrispondente immagine, e lontana da altre immagini. Ad esempio, la descrizione “un albero accanto ad una casa” sarà posizionata, alla fine dell’apprendimento, vicino all’immagine di una casa con un albero, mentre la descrizione “Annunciazione di Simone Martini” sarà posizionata lontana dalla casa e dall’albero e vicina alle immagini altre annunciazioni. Affinché l’apprendimento sia efficace, gli attuali LMM utilizzano centinaia di milioni di coppie immagine-descrizione, con le descrizioni tipicamente in inglese. A fine processo il modello ha imparato l’insieme dei parametri, nell’ordine delle centinaia di milioni, che ottimizzano gli accoppiamenti corretti delle coppie immagine-descrizione.

Il modello è pronto per essere usato: possiamo caricare un’immagine e chiedere una descrizione del suo contenuto. In alcuni modelli possiamo chiedere di generare un’immagine partendo da una descrizione (si può fare con GPT-4 vision perché è integrato con DALL·E) ma, almeno per il momento, non è possibile per tutti i LMM. Questo perché è il modello del linguaggio che ha la funzione “pivot”, e determina quello che si può fare. Possiamo generare testo, ma non generare immagini; possiamo chiedere informazioni su un’immagine, ma non cercare immagini simili ad un’altra, perché il modello del linguaggio non ha queste funzionalità.

Modelli multimodali: grandi potenzialità applicative

Le applicazioni per questa nuova generazione di modelli multimodali saranno di grande impatto. Sicurezza, education, salute e benessere, gaming, sono alcune delle aree in cui l’accoppiamento di capacità visive e di interpretazione semantica dei contenuti potrà dare un alto valore aggiunto rispetto allo stato dell’arte attuale.

Nel gaming

Nel gaming si potranno raggiungere ulteriori gradi di realismo: ad esempio, un LMM evoluto potrà raccontare cosa sta accadendo sul campo di gioco, interpretare i fischi dell’arbitro, i gesti dei calciatori, integrando il racconto con le conoscenze sulle squadre in campo e le regole del gioco: una sorta di telecronista virtuale impersonato da un modello multimodale.

Nella robotica

Ma forse le potenzialità applicative più evidenti dei modelli multimodali sono nel campo della robotica. È infatti prevedibile gli LMM forniranno il supporto cognitivo alle capacità motorie del robot, permettendo non solo di pianificare azioni per il raggiungimento di un obiettivo, ma anche di verificare se sussistono le condizioni per poterle eseguire. Ad esempio, supponiamo che ad un robot domestico sia chiesto di chiudere una finestra. Il modello multimodale, grazie alle conoscenza del modello del linguaggio, potrà pianificare una sequenza di azioni da intraprendere per raggiungere l’obiettivo (verificare che esista una finestra, avvicinarsi alla finestra), ma sarà il modello che analizza l’ambiente a verificare se queste azioni possono effettivamente essere eseguite, diminuendo la probabilità di azioni per cui non sussistano le condizioni (se la finestra è già chiusa, l’azione di chiuderla ha poche probabilità di essere eseguita).

I nodi privacy

Se da una parte di intravedono enormi potenzialità applicative, va anche detto che, con l’aumentare dei dati a disposizione del modello (immagini, video), aumentano anche i rischi legati agli utilizzi dei modelli multimodali, in termini di scarsa trasparenza del modello e di potenziali violazioni della privacy personale e di copyright. Sugli aspetti normativi per limitare tali rischi il dibattito è in corso (vedi la discussione a livello europeo su AI Act [2]).

Modelli multimodali: ragionano veramente?

La comunità accademica da qualche tempo si pone la questione se, e in quale misura, i modelli di intelligenza artificiale generativa (ricordiamoci che sono modelli statistici) abbiano una reale comprensione del linguaggio. I modelli multimodali, grazie alla potenziale rete di sensori (immagini, video, audio) sul mondo reale, approssimano una nozione di “intelligenza” più vicina a quella degli esseri umani, tramite la capacità di assorbire e elaborare stimoli sensoriali dai quali apprendere comportamenti intelligenti.

La domanda sulle capacità degli LMM è strettamente collegata ai criteri che adottiamo per misurare le capacità del modello. I benchmark attuali consistono in una serie di domande relative ad un insieme di immagini a cui il modello deve rispondere (visual question answering). Le domande sono formulate in modo da ammettere risposte di tipo sì/no, così da rendere facile valutare la correttezza della risposta. Una modalità particolarmente interessante consiste nel porre domande controfattuali, dove il modello deve scegliere tra due alternative molto simili. Ad esempio, supponiamo di dare al modello un’immagine dove si vedono tre alpinisti intenti a scalare una montagna. Poi chiediamo al modello quale delle seguenti affermazioni è corretta: “Due persone scalano una montagna” oppure “Tre persone scalano una montagna”. Questo test controfattuale permette di isolare e valutare la capacità del modello di contare entità presenti nell’immagine. Test simili si possono confezionare per valutare il ragionamento causa-effetto, il corretto ordine temporale di eventi, e le relazioni spaziali tra oggetti in una scena.

I modelli multimodali pongono un’ulteriore interessante questione: quando il modello risponde ad una domanda, quale componente (linguaggio, visione, audio) viene utilizzata dal modello? Per capire l’importanza della questione, facciamo un esempio, sempre per vedere se il modello sa effettivamente contare. Mostriamo un’immagine e poi chiediamo quale delle due descrizioni sia corretta “Due persone giocano a tennis” oppure “Cinque persone giocano a tennis”. Si intuisce che la prima risposta ha una probabilità molto maggiore di essere corretta (a tennis si gioca normalmente in due o in quattro), indipendentemente da quante persone stiano giocando. In questo caso la componente del linguaggio è avvantaggiata, e potrebbe rispondere correttamente anche senza consultare il componente di analisi delle immagini. Sembra un caso limite, ma in realtà è difficile trovare situazioni in cui la conoscenza del modello del linguaggio non prevalga sull’analisi dell’immagine.

Modelli multimodali: e la cultura italiana?

Le immagini sono fortemente dipendenti dal contesto culturale in cui sono prodotte, e quelle usate per addestrare i modelli multimodali in gran parte risentono del contesto americano. Anche le descrizioni linguistiche associate alle immagini sono sostanzialmente in inglese. Come conseguenza, i modelli generativi (vale anche per gli LLM) sono fortemente sbilanciati verso la cultura anglo-americana. È un aspetto che non va sottovalutato: non solo in termini di prestazioni (ad esempio, il modello riconoscerà con maggiore accuratezza una scena di football americano piuttosto che una partita di calcio a cinque), ma anche, e soprattutto, per i bias culturali veicolati dal modello. Pensiamo alle differenze culturali che si manifestano in situazioni comuni (in una sala d’aspetto da un dottore, in una scuola italiana, per non parlare del gesticolare che ci contraddistingue, e delle nostre inflessioni dialettali). Gli attuali modelli di AI generativa, e in particolare i modelli multimodali, tendono ad appiattire queste differenze in una sorta di mono-cultura globale. Per ovviare al problema dei bias culturali, la strada obbligata è ri-addestrare (finetuning) un modello con dati culturalmente differenziati: testi, immagini, video, audio, per così dire, nativi italiani. A questo riguardo è utile menzionare il progetto PNRR tutto italiano FAIR (Future Artificial Intelligence Research) che, tra le altre, comprende specifiche ricerche su tecniche di adattamento di modelli generativi alla lingua e alla cultura italiana.

Modelli multimodali: la competizione è aperta

Il 6 dicembre 2023 Google ha lanciato al pubblico Gemini, un modello multimodale che promette di battere GPT-4. Il modello più potente della serie (Gemini Ultra, non ancora disponibile) possiede avanzate capacità di interpretazione di video e segnali audio, un ulteriore passo avanti rispetto alla versione attuale di GPT-4 vision. Google afferma che, a differenza di GPT-4, in Gemini la multimodalità è stata ottenuta tramite fusione di input sensoriali per così dire “alla pari”. Sembra quindi che siano possibili tutti gli incroci input-output tra quattro modalità (testo, immagine, video e audio): ad esempio, un segnale audio di un temporale come input e un video di un temporale come output, oppure un video senza audio di una persona felice come input e un racconto parlato del perché la persona possa essere felice in output.

Questo per quanto riguarda modelli multimodali proprietari, che possiamo usare come servizi a pagamento su cloud. Ci sono poi modelli che vengono utilizzati in ambito di ricerca, meno potenti di GPT-4 o Gemini, ma che possono essere installati (serve un’infrastruttura di calcolo di media capacità), modificati ed estesi con nuove funzionalità. In questo settore si stanno facendo progressi veloci e significativi, con soluzioni che allo stesso tempo sono sempre più performanti e che richiedono sempre minori quantità di dati di addestramento e minori capacità di calcolo, a tutto vantaggio della sostenibilità del modello.

Insomma, la competizione sui modelli multimodali è ufficialmente aperta, e i prossimi sviluppi saranno decisivi per le sorti della artificial general intelligence.

Speciale PNRR

Tutti
Incentivi
Salute digitale
Formazione
Analisi
Sostenibilità
PA
Sostemibilità
Sicurezza
Digital Economy
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr

Articoli correlati

Articolo 1 di 4