intelligenza artificiale

Vision-Language-Action: il futuro dell’automazione robotica con l’AI



Indirizzo copiato

Vision-Language-Action (VLA) rappresenta l’avanguardia dell’AI robotica, combinando percezione visiva, comprensione linguistica e capacità d’azione. Questi sistemi multimodali stanno rivoluzionando settori come automazione industriale, navigazione autonoma e assistenza sanitaria

Pubblicato il 26 mar 2025

Giovanni Masi

Computer Science Engineer



robot umanoidi (1) chatbot
chatbot

I modelli Vision-Language-Action (VLA) stanno emergendo come una soluzione avanzata per migliorare l’interazione tra AI e il mondo fisico, abilitando sistemi in grado di comprendere informazioni visive, elaborare comandi linguistici e rispondere con azioni adeguate. Questa tecnologia ha implicazioni significative in vari settori, dalla robotica industriale alla navigazione autonoma, fino all’assistenza sanitaria e domestica. Comprendere lo stato dell’arte di questi modelli è essenziale per valutare il loro potenziale e le sfide ancora da affrontare.

I modelli Vision-Language-Action (VLA) rappresentano un’avanguardia nel campo dell’intelligenza artificiale, in grado di integrare informazioni visive, linguistiche e motorie per consentire ai robot di comprendere e interagire con l’ambiente in modo più naturale ed efficace. Questi modelli mirano a superare le limitazioni dei tradizionali sistemi robotici, che spesso operano su comandi predefiniti e mancano di flessibilità nell’adattarsi a situazioni nuove o complesse.

Definizione dei modelli VLA

L’architettura di un modello VLA è tipicamente organizzata in tre moduli principali, interconnessi per garantire una risposta efficace alle informazioni visive e linguistiche. Questi moduli comunicano tra loro attraverso rappresentazioni intermedie condivise, strutturate in embedding multimodali che permettono un’interazione fluida tra le diverse modalità di input.

Modulo di visione

  • Utilizza reti neurali convoluzionali (CNN) e modelli di visione transformer (ViT) per estrarre caratteristiche significative dalle immagini o dai video in ingresso. Le CNN sono particolarmente efficaci nell’analisi delle caratteristiche spaziali e delle texture, mentre i modelli ViT sfruttano l’auto-attenzione per catturare relazioni a lungo raggio tra elementi dell’immagine. Inoltre, questi modelli possono essere potenziati attraverso tecniche di pre-addestramento su grandi dataset multimodali, migliorando la loro capacità di generalizzazione e interpretazione contestuale. In alcuni casi, vengono integrate architetture ibride che combinano i vantaggi di CNN e ViT per ottimizzare le prestazioni su compiti complessi di riconoscimento e segmentazione.
  • Integra tecniche di segmentazione semantica, come DeepLabV3+ e Mask R-CNN, per identificare con precisione i confini degli oggetti all’interno delle immagini, migliorando la comprensione spaziale del sistema. Inoltre, utilizza reti neurali avanzate per il rilevamento degli oggetti, come Faster R-CNN, YOLO e DETR, che permettono una rapida individuazione e classificazione degli elementi presenti nella scena. Queste tecniche, combinate con algoritmi di attenzione visiva, consentono al modello VLA di costruire una rappresentazione contestuale più dettagliata e di migliorare la capacità di correlare le informazioni visive con il linguaggio naturale.
  • Impiega modelli pre-addestrati su dataset multimodali di grandi dimensioni, come LAION-5B e OpenImages, per migliorare la capacità di riconoscere oggetti, scene e situazioni complesse. Questi dataset forniscono un’enorme varietà di dati visivi e testuali, consentendo ai modelli di apprendere correlazioni semantiche avanzate. Inoltre, tecniche come il contrastive learning, utilizzate da CLIP e ALIGN, permettono di affinare la comprensione tra input visivi e testuali, migliorando la capacità di generalizzazione in scenari mai visti prima. Alcuni approcci recenti, come Flamingo di DeepMind, combinano la potenza dei modelli transformer con architetture di visione avanzate per ottenere risultati ancora più efficaci nell’integrazione multimodale.

Modulo di linguaggio

  • Basato su modelli transformer di ultima generazione come BERT, T5, GPT-4 e PaLM 2, è responsabile dell’elaborazione del linguaggio naturale e della generazione di risposte coerenti. Questi modelli sono addestrati su dataset multimodali di grandi dimensioni, come The Pile e Common Crawl, per migliorare la comprensione contestuale e la capacità di ragionamento. Inoltre, l’integrazione di tecniche avanzate come l’attenzione incrociata (cross-attention) e il few-shot learning consente di adattare rapidamente le risposte a nuovi contesti senza necessità di ri-addestramento completo.
  • Utilizza meccanismi di cross-attention avanzati, come quelli implementati nei modelli Vision-Transformer (ViT) e multimodal large language models (MLLM), per correlare parole con elementi visivi estratti dal modulo di visione. Questi meccanismi sfruttano strutture gerarchiche di attenzione per assegnare pesi specifici alle informazioni più rilevanti, migliorando la comprensione del contesto visivo-linguistico. Tecniche di grounding semantico e spatial attention vengono impiegate per ancorare le parole a regioni specifiche delle immagini o dei video, aumentando l’accuratezza nella generazione delle risposte e nelle decisioni basate sul contesto visivo.
  • Implementa tecniche di grounding del linguaggio, come Referring Expression Comprehension (REC) e Vision-Language Navigation (VLN), per collegare espressioni linguistiche con riferimenti spaziali nel contesto visivo. Questi metodi utilizzano reti neurali multimodali e modelli transformer avanzati, come Flamingo e OFA (One For All), per migliorare l’associazione tra oggetti e descrizioni testuali. Inoltre, sfruttano dataset di grandi dimensioni, come Talk2Car e Visual Genome, per addestrare i modelli a identificare con precisione entità specifiche in scenari complessi e dinamici.

Modulo di azione

  • Controlla l’esecuzione dei compiti robotici attraverso algoritmi di decision-making basati su pianificazione adattiva e reinforcement learning (RL). L’uso di RL avanzato, come Proximal Policy Optimization (PPO) e Deep Q-Networks (DQN), consente ai modelli di apprendere strategie ottimali in ambienti complessi e dinamici. Inoltre, vengono impiegati metodi di apprendimento per rinforzo multimodale, che combinano informazioni visive e linguistiche per generare azioni più precise e contestualmente rilevanti. L’integrazione di tecniche di self-supervised learning aiuta il sistema a migliorare le proprie capacità di adattamento senza richiedere un’intensa supervisione umana, riducendo la necessità di dataset di addestramento specifici.
  • Integra modelli di pianificazione del movimento che utilizzano rappresentazioni visivo-linguistiche per generare traiettorie di azione. Questi modelli combinano reti neurali convoluzionali e transformer multimodali per analizzare la scena, prevedere dinamiche ambientali e ottimizzare il percorso dell’agente. Tecniche come Motion Planning Networks (MPNet) e Diffusion Policy vengono impiegate per generare traiettorie fluide e adattabili in tempo reale. Inoltre, modelli avanzati come Trajectory Transformer e Decision Transformer utilizzano sequenze temporali per prevedere azioni future basandosi su dati visivi e linguistici, migliorando l’affidabilità delle decisioni in ambienti complessi e dinamici.
  • Può essere basato su tecniche di imitation learning, in cui il sistema apprende a eseguire compiti osservando dimostrazioni umane. Tra gli approcci più avanzati vi sono il Behavior Cloning (BC), che utilizza dati raccolti da esperti per addestrare modelli di apprendimento supervisionato, e l’Inverse Reinforcement Learning (IRL), che cerca di inferire una funzione di ricompensa a partire dalle azioni di un esperto. Recenti sviluppi includono metodi basati su modelli transformer multimodali, come GATO di DeepMind, che combinano input visivi, linguistici e motori per apprendere in modo più generalizzato. Inoltre, dataset di grande scala, come RoboNet e RT-X, vengono utilizzati per migliorare la capacità di generalizzazione dei modelli di imitation learning, consentendo loro di adattarsi a un’ampia varietà di compiti e ambienti.

    Tecniche di fusione multimodale nei modelli VLA

    L’integrazione tra questi moduli avviene attraverso meccanismi avanzati di fusione multimodale:

    Cross-modal attention

    Permette al modello di correlare elementi visivi e testuali, utilizzando matrici di attenzione incrociata per stabilire connessioni semantiche tra le diverse modalità. Tecniche avanzate come Perceiver IO e Flamingo di DeepMind estendono questa capacità attraverso modelli di attenzione generalizzati che possono integrare e correlare informazioni da più fonti multimodali simultaneamente. Inoltre, l’uso di architetture transformer con cross-attention su rappresentazioni latenti condivise migliora la capacità di disambiguare riferimenti testuali ambigui rispetto agli elementi visivi corrispondenti.

    Recenti sviluppi come BLIP-2 (Bootstrapped Language-Image Pretraining) implementano un framework più efficiente per correlare immagini e testi con un ridotto fabbisogno computazionale, migliorando le prestazioni su compiti complessi di comprensione visivo-linguistica.

    Joint embedding spaces

    Le rappresentazioni visive e linguistiche vengono proiettate in uno spazio comune attraverso tecniche avanzate di apprendimento auto-supervisionato, come CLIP (Contrastive Language-Image Pretraining) e ALIGN (A Large-scale Image and Noisy-text dataset). Questi approcci utilizzano l’apprendimento contrastivo per migliorare l’allineamento semantico tra le due modalità, consentendo al sistema di formulare risposte integrate in modo più efficace. Inoltre, l’uso di architetture transformer multimodali, come Flamingo di DeepMind e BLIP-2, permette di ottimizzare ulteriormente la rappresentazione congiunta delle informazioni visive e linguistiche, migliorando la capacità del modello di gestire compiti di ragionamento e generazione multimodale.

    Graph Neural Networks (GNN)

    In alcuni modelli avanzati, le interazioni tra oggetti, parole e azioni vengono modellate come grafi, migliorando la capacità di ragionamento logico del sistema. Recenti sviluppi hanno introdotto tecniche come il Graph Attention Network (GAT), che utilizza meccanismi di auto-attenzione per assegnare pesi dinamici alle connessioni tra nodi, e il Relational Graph Convolutional Network (R-GCN), che permette di modellare relazioni complesse tra entità eterogenee.

    Inoltre, modelli come Scene Graph Transformers integrano informazioni spaziali e semantiche per potenziare la comprensione delle interazioni visivo-linguistiche, rendendo più efficace l’inferenza contestuale nelle applicazioni VLA.

    Queste architetture permettono ai modelli VLA di adattarsi a scenari complessi, combinando la percezione visiva con la comprensione linguistica per generare azioni contestualmente appropriate.

    La ricerca sui modelli VLA

    VLAS: Vision-Language-Action con input vocale

    VLAS è un modello emergente che introduce la modalità vocale nei sistemi VLA, consentendo ai robot di comprendere ed eseguire istruzioni parlate senza necessità di trascrizione testuale. Questo approccio migliora l’adattabilità del sistema in contesti non strutturati, dove gli input vocali possono variare a seconda del parlante e delle condizioni ambientali.

    Actra: ottimizzazione dell’inferenza per la manipolazione robotica

    Actra è un nuovo modello che sfrutta un’attenzione avanzata sulle traiettorie di azione, utilizzando query specifiche per migliorare l’efficienza e la robustezza nell’inferenza. Questo approccio consente ai modelli VLA di generare azioni più precise riducendo il tempo di calcolo, un aspetto critico per applicazioni robotiche in tempo reale.

    Dataset ProSim-instruct-520k

    Un dataset di larga scala che fornisce risorse avanzate per l’addestramento e la valutazione dei modelli VLA nella manipolazione robotica. Contiene un’ampia varietà di istruzioni visivo-linguistiche per migliorare la capacità dei modelli di comprendere e rispondere a comandi complessi.

    Sfide attuali nei modelli VLA

    Nonostante i progressi, i modelli VLA affrontano ancora diverse sfide, tra cui la robustezza e la generalizzazione in ambienti reali. Le principali difficoltà includono:

    Adattabilità a scenari reali

    Molti modelli mostrano alte prestazioni su dataset controllati ma faticano a trasferire queste competenze a situazioni impreviste nel mondo fisico.

    Efficienza computazionale

    L’addestramento e l’esecuzione di modelli VLA avanzati richiedono risorse notevoli, limitando la loro implementazione in dispositivi edge o robot mobili con capacità di calcolo limitate.

    Comprensione semantica avanzata

    Sebbene i modelli multimodali abbiano fatto progressi nel collegamento tra linguaggio e visione, la capacità di comprendere concetti astratti e ragionare su scenari complessi rimane una sfida aperta.

    L’integrazione di modelli come VLAS e Actra, insieme a dataset più ampi e diversificati come ProSim-Instruct-520k, rappresenta un passo avanti nella risoluzione di queste problematiche. (arxiv.org)

    Modelli VLA avanzati e applicazioni

    La ricerca sui modelli VLA ha compiuto progressi significativi negli ultimi anni, con diversi approcci emergenti che mirano a migliorare la generalizzazione, la comprensione semantica e l’efficienza dei robot.

    Di seguito, alcuni dei contributi più rilevanti.

    RT-2: trasferimento di conoscenza dal web al controllo robotico

    RT-2 rappresenta un passo avanti nell’integrazione di modelli vision-linguaggio pre-addestrati su dati web su larga scala direttamente nel controllo robotico end-to-end. Questo approccio consente ai robot di beneficiare della vasta conoscenza disponibile online, migliorando la loro capacità di generalizzare a oggetti e situazioni non presenti nei dati di addestramento specifici del robot.

    Un aspetto chiave di RT-2 è la rappresentazione delle azioni robotiche come sequenze di token testuali, permettendo un co-addestramento efficace con compiti di visione-linguaggio su larga scala, come il visual question answering. I risultati mostrano che RT-2 non solo esegue politiche robotiche performanti, ma acquisisce anche capacità emergenti, come il ragionamento semantico e l’interpretazione di comandi non presenti nei dati di addestramento.

    OpenVLA: un modello VLA open-source

    OpenVLA è un modello VLA open-source con 7 miliardi di parametri, addestrato su una collezione diversificata di 970.000 dimostrazioni robotiche reali. Costruito su un backbone Llama 2, combina un encoder visivo che integra funzionalità pre-addestrate da DINOv2 e SigLIP.

    OpenVLA ha dimostrato prestazioni superiori nel controllo di manipolazione generalista, superando modelli chiusi come RT-2-X (55B) di 16,5% in termini di tasso di successo assoluto in 29 compiti e su diversi robot, con un numero di parametri sette volte inferiore. Inoltre, OpenVLA supporta il controllo di più piattaforme robotiche “out-of-the-box” e può essere rapidamente adattato a nuovi setup robotici tramite fine-tuning efficiente dei parametri.

    π0: modello VLA per il controllo generale dei robot

    π0 è un modello VLA progettato per il controllo robotico generalista, costruito su un pre-addestramento su larga scala e una generazione di azioni basata su flow matching. Addestrato su dati provenienti da sette piattaforme robotiche e 68 compiti unici, π0 ha dimostrato una forte performance zero-shot e fine-tuned in compiti complessi del mondo reale, come la piegatura della biancheria e l’assemblaggio di scatole. Una caratteristica distintiva di π0 è l’uso del flow matching per produrre traiettorie di azione fluide in tempo reale a 50Hz, rendendolo altamente efficiente, preciso e adattabile per l’implementazione nel mondo reale.

    FAST: tokenizzazione efficiente delle azioni per modelli VLA

    FAST (Frequency-space Action Sequence Tokenization) propone uno schema di tokenizzazione delle azioni basato sulla trasformata discreta del coseno, affrontando le sfide nella rappresentazione di segnali di azione continui ad alta frequenza. Questo approccio consente l’addestramento di modelli VLA autoregressivi per compiti altamente destrezza e ad alta frequenza, dove i metodi di discretizzazione standard falliscono. FAST+ è un tokenizzatore universale di azioni robotiche, addestrato su 1 milione di traiettorie di azione robotiche reali, utilizzabile come black-box per una vasta gamma di sequenze di azioni robotiche con spazi di azione e frequenze di controllo diversificati.

    3D-VLA: integrazione della percezione 3d nei modelli VLA

    3D-VLA introduce una nuova famiglia di modelli fondazionali per l’embodied AI che collegano senza soluzione di continuità la percezione 3D, il ragionamento e l’azione attraverso un modello generativo del mondo. Questo approccio supera le limitazioni dei modelli VLA basati su input 2D, integrando una comprensione più profonda delle dinamiche del mondo fisico tridimensionale. 3D-VLA è costruito su un large language model (LLM) basato su 3D e utilizza token di interazione per impegnarsi con l’ambiente embodied, migliorando le capacità di ragionamento, generazione multimodale e pianificazione in ambienti embodied.

    Prospettive future dei modelli VLA

    I modelli Vision-Language-Action rappresentano una delle frontiere più promettenti dell’intelligenza artificiale e della robotica. Grazie ai recenti progressi, i sistemi VLA stanno migliorando significativamente nella comprensione del linguaggio naturale, nell’interpretazione visiva e nella capacità di eseguire azioni fisiche nel mondo reale. Con il rilascio di modelli open-source e framework avanzati, il settore della robotica si avvicina sempre più a una maggiore flessibilità e adattabilità, aprendo nuove prospettive per l’automazione intelligente e interattiva.

    EU Stories - La coesione innova l'Italia

    Tutti
    Video & Podcast
    Analisi
    Social
    Iniziative
    Podcast
    Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
    Podcast
    EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
    Opinioni
    La comunicazione dei fondi europei da obbligo ad opportunità
    eBook
    L'analisi della S3 in Italia
    Norme UE
    European Accessibility Act: passi avanti verso un’Europa inclusiva
    Agevolazioni
    A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
    Quadri regolamentari
    Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
    Coesione
    Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
    Dossier
    Pubblicato il long form PO FESR 14-20 della Regione Sicilia
    Iniziative
    400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
    Formazione
    “Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
    TRANSIZIONE ENERGETICA
    Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
    Formazione
    “Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
    MedTech
    Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
    Finanza sostenibile
    BEI e E-Distribuzione: investimenti per la sostenibilità energetica
    Professioni
    Servono competenze adeguate per gestire al meglio i fondi europei
    Master
    Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
    Programmazione UE
    Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
    innovazione sociale
    Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
    Programmazione europ
    Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
    Interventi
    Riccardo Monaco e le politiche di coesione per il Sud
    Iniziative
    Implementare correttamente i costi standard, l'esperienza AdG
    Finanziamenti
    Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
    Formazione
    Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
    Interviste
    L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
    Interviste
    La ricerca e l'innovazione in Campania: l'ecosistema digitale
    Iniziative
    Settimana europea delle regioni e città: un passo avanti verso la coesione
    Iniziative
    Al via il progetto COINS
    Eventi
    Un nuovo sguardo sulla politica di coesione dell'UE
    Iniziative
    EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
    Iniziative
    Parte la campagna di comunicazione COINS
    Interviste
    Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
    Analisi
    La politica di coesione europea: motore della transizione digitale in Italia
    Politiche UE
    Il dibattito sul futuro della Politica di Coesione
    Mobilità Sostenibile
    L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
    Iniziative
    Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
    Politiche ue
    Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
    Finanziamenti
    Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
    Analisi
    Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
    Politiche UE
    Innovazione locale con i fondi di coesione: progetti di successo in Italia
    Podcast
    Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
    Podcast
    EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
    Opinioni
    La comunicazione dei fondi europei da obbligo ad opportunità
    eBook
    L'analisi della S3 in Italia
    Norme UE
    European Accessibility Act: passi avanti verso un’Europa inclusiva
    Agevolazioni
    A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
    Quadri regolamentari
    Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
    Coesione
    Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
    Dossier
    Pubblicato il long form PO FESR 14-20 della Regione Sicilia
    Iniziative
    400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
    Formazione
    “Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
    TRANSIZIONE ENERGETICA
    Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
    Formazione
    “Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
    MedTech
    Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
    Finanza sostenibile
    BEI e E-Distribuzione: investimenti per la sostenibilità energetica
    Professioni
    Servono competenze adeguate per gestire al meglio i fondi europei
    Master
    Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
    Programmazione UE
    Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
    innovazione sociale
    Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
    Programmazione europ
    Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
    Interventi
    Riccardo Monaco e le politiche di coesione per il Sud
    Iniziative
    Implementare correttamente i costi standard, l'esperienza AdG
    Finanziamenti
    Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
    Formazione
    Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
    Interviste
    L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
    Interviste
    La ricerca e l'innovazione in Campania: l'ecosistema digitale
    Iniziative
    Settimana europea delle regioni e città: un passo avanti verso la coesione
    Iniziative
    Al via il progetto COINS
    Eventi
    Un nuovo sguardo sulla politica di coesione dell'UE
    Iniziative
    EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
    Iniziative
    Parte la campagna di comunicazione COINS
    Interviste
    Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
    Analisi
    La politica di coesione europea: motore della transizione digitale in Italia
    Politiche UE
    Il dibattito sul futuro della Politica di Coesione
    Mobilità Sostenibile
    L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
    Iniziative
    Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
    Politiche ue
    Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
    Finanziamenti
    Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
    Analisi
    Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
    Politiche UE
    Innovazione locale con i fondi di coesione: progetti di successo in Italia

    Articoli correlati

    Articolo 1 di 4