reti

Il Cloud evolve verso l’Edge computing: cosa significa e i vantaggi della transizione

Le infrastrutture strategiche – telecomunicazioni, energia e trasporti in primo luogo – dimostrano che il modello di cloud sta cambiando in modo significativo trasformandosi in un modello di edge computing: vediamo il significato di questa trasformazione e i benefici che ne deriveranno

Aggiornato il 07 Feb 2023

Stefano Pileri

Chief digital transformation and innovation officer Maticmind

edge ai

Le infrastrutture strategiche, telecomunicazioni, energia e trasporti in primo luogo, dimostrano che il modello di Cloud sta cambiando in modo significativo trasformandosi in un modello di Edge Computing che introduce significative capacità di elaborazione locali riducendo la necessità di trasportare tutti i dati generati da oggetti intelligenti e terminali nel Cloud.

Questa trasformazione offre molti vantaggi rispetto al tradizionale modello di centralizzazione ossia offre maggiore tempestività di fruizione dei risultati, ha migliore sostenibilità ambientale evitando il trasporto di moli enormi di informazioni a migliaia di chilometri di distanza da dove esse sono prodotte e utilizzate e consente infine un controllo dei dati sensibili certamente migliore del caso di centralizzazione spinta nel Cloud. Il modello Edge, infine, contribuirà in modo deciso allo sviluppo delle competenze integrate di networking, computing e security particolarmente importanti per l’evoluzione delle infrastrutture strategiche dei Paesi moderni.

Tutte le sfide del cloud made in Europe: perché è cruciale la “sovranità digitale”

Come evolve il mercato del cloud

Nei quindici anni di esistenza del cloud, inteso come la possibilità di ottenere capacità elaborativa, memoria, sistemi operativi, data base management systems e applicazioni sotto forma di servizio, il mercato ha premiato pochi player, i cosiddetti Public Cloud Providers, che detengono gran parte delle quote di mercato disponibili.

Da soluzioni iniziali focalizzate sulle infrastrutture informatiche a vere e proprie piattaforme che comprendono tipologie di servizi sempre più ampli che spaziano dalla business intelligence, alle funzioni di machine learning, agli algoritmi di intelligenza artificiale, agli analytics, alle funzioni di networking, all’archiviazione e backup, alla gestione e governance, all’internet delle cose, alla sicurezza e alla creazione e gestione del web.

Il mercato, nel nostro Paese, ha raggiunto i 4,5 miliardi di euro in crescita del 22%, di cui il 40% nelle infrastrutture (+27%), il 18% nelle piattaforme (+33%) e il 42% nelle applicazioni (+14%). Tale adozione è in continua crescita intorno al 20% anno in quanto ha suscitato interesse elementi come:

  • la trasformazione del modello di information technology da investimenti fissi a costi variabili proporzionali alla crescita delle esigenze e del business delle aziende,
  • l’evoluzione da acquisto di semplice infrastruttura a esigenze di maggiore complessità in logica di piattaforma,
  • le proposte dei grandi fornitori di applicativi software che stanno fortemente privilegiando la i modelli a servizio rispetto a quelli on premise.

Quello che oggi progressivamente emerge è che il confronto tra la spesa relativa al precedente modello on premise e il nuovo modello cloud non sempre mantiene le promesse di ottimizzazione attese. Questo perché, come già noto in altri contesti, le prestazioni, la velocità di ottenimento dei risultati, la disponibilità di risorse apparentemente illimitate, spingono ad un uso molto più elevato e continuo del previsto. Questo diventa critico quando, al crescere delle esigenze e del consumo, non corrisponde una crescita altrettanto decisa nei risultati dell’azienda.

Questo fenomeno era emerso già da alcuni decenni nelle reti di telecomunicazioni dove al crescere delle prestazioni delle stesse, velocità, tempo di risposta, affidabilità il consumo dei dati, nei quali comprendiamo anche quello relativo ai servizi voce, i clienti hanno decisamente spinto il mercato verso offerte flat, di tipo “tutto compreso”, abbandonando le primordiali offerte basate sull’uso dei servizi e sui volumi dei dati consumati.

I fattori che porteranno a un significativo cambio del paradigma Cloud nei prossimi anni

Il cloud sta cambiando e continuerà a cambiare in modo significativo. In primo luogo, da un approccio mono-fornitore dei primi anni sta emergendo la preferenza verso il modello multi-fornitore, ossia multi-cloud, per evitare la dipendenza eccessiva e dunque l’impossibilità di mantenere un pur minimo potere negoziale. Questo modello, come contropartita, rende crescente la complessità del controllo dei costi. Questo fatto unito alle considerazioni fatte in precedenza sulla estrema facilità di uso e sulle notevoli prestazioni che, di fatto, incrementano la propensione al consumo, indicano che l’adozione dell’approccio cloud spesso non si accompagna a una effettiva ottimizzazione dei costi.

In secondo luogo, la crescita davvero significativa dei costi dell’energia non può che impattare sui costi futuri delle offerte cloud. In questo caso anche per i data center valgono le considerazioni generali che spingono verso l’uso di fonti di energia rinnovabili più facilmente applicabili in contesti caratterizzati da consumi contenuti e distribuiti piuttosto che in grandi concentrazioni energivore come sono i data center di elevatissima scala e dimensione dell’attuale generazione di Cloud.

In terzo luogo, stiamo assistendo a una crescita esponenziale dei dati prodotti dagli oggetti intelligenti e dai “gemelli digitali” di impianti, macchinari, siti produttivi agricoli, infrastrutture di mobilità. Le tecnologie IOT e 5G contribuiranno alla generazione di molti dati locali per i quali la tempestività del loro trasferimento per le elaborazioni (latenza) è un elemento stringente. Trasportare crescenti moli di dati nel Cloud per poi usufruire di sintesi locali non avrà senso.

Infine, cresce in termini di impatto e consapevolezza, la cosiddetta Sovereignty digitale e dei dati. Le Nazioni, le Pubbliche Amministrazioni e, mano a mano le Aziende strategiche, decideranno che una parte significativa dei dati e delle applicazioni che li elaborano devono essere locali con accesso certo e incondizionato (quale che sia lo scenario globale che si prospetterà).

What is Edge Computing and its Impact on 5G?

What is Edge Computing and its Impact on 5G?

Guarda questo video su YouTube

Emerge il concetto di Cloud distribuito e di Edge computing

Si sta avvicinando un cambio di paradigma nel computing. Si ripropone l’avvicendamento tra centralizzato e distribuito. È la risposta alle tendenze emergenti sintetizzate in precedenza. Si entrerà nell’era dell’Edge computing che combina la flessibilità e tempestività di sviluppo ed esecuzione degli applicativi (container, kubernates, …) con l’elaborazione locale e rapidità dei risultati. Le tecnologie di software engineering proprie del Cloud sono largamente disponibili sul mercato. Tali concetti valgono anche sull’Edge.

Per Edge computing si intende l’elaborazione delle informazioni eseguita vicino all’ubicazione fisica della sorgente dei dati e vicino a chi usufruisce dei risultati. Grazie alla maggiore prossimità di questi servizi di elaborazione all’Edge della rete, si ottengono risultati più veloci e affidabili, a un costo inferiore. Infatti, l’Edge computing permette di ridurre i costi di rete, evitare eventuali limitazioni della larghezza di banda, ridurre i ritardi nelle trasmissioni, limitare gli errori di servizio e controllare meglio i trasferimenti dei dati sensibili.

L’Edge computing oggi viene utilizzato in molti settori, tra cui le telecomunicazioni, la produzione industriale, i trasporti, l’elettricità. I motivi che inducono le aziende all’adozione dell’Edge computing sono molteplici come lo sono gli ambiti in cui queste operano. Molti sono gli esempi di Edge computing relativi all’esigenza di elaborare dati in tempo reale e molti dei quali sono nei settori ora indicati. Nella Produzione industriale, i sensori Internet of Things (IoT) generano un flusso costante di dati che possono essere utilizzati per prevenire guasti e i fermi delle linee, monitorare e controllare la qualità della produzione e migliorare le operazioni. Secondo alcune stime stima, un moderno impianto di grandi dimensioni può generare 2 petabyte / mese. È più veloce e meno costoso elaborare questa enorme quantità di dati in locale, anziché trasmetterli prima a un Cloud remoto. Ovviamente resta importante il collegamento alla piattaforma dati centralizzata.

L’Edge computing aiuta anche a mantenere veloci i servizi Internet più diffusi. Le reti per la distribuzione di contenuti (CDN) distribuiscono server di dati vicino a dove si trovano gli utenti, consentendo il caricamento rapido dei siti Web con più traffico e supportando servizi di streaming video veloci e anche le applicazioni che beneficiano di tempi di risposta inferiori, come le applicazioni di realtà aumentata e realtà virtuale, traggono vantaggio dall’elaborazione locale.

L’Edge computing riduce ulteriormente il rischio di esposizione dei dati sensibili poiché mantiene la potenza di elaborazione locale, consentendo alle aziende di applicare procedure di sicurezza o di conformarsi alle politiche di regolamentazione.

presentmpsabilitaalcloud

Le infrastrutture strategiche delle telecomunicazioni e la nuova architettura EDGE

L’adozione dell’Edge computing è una priorità nelle Telecomunicazioni in quanto queste, con il 5G, si preparano ad ampliare le applicazioni e i servizi gestiti e a ridurre i costi adottando tecnologie software su gran parte delle funzioni di rete eseguite su hardware generico e dunque a costo più contenuto rispetto alle soluzioni embedded.

Lo sviluppo delle reti 5G abilita nuovi servizi caratterizzati dalla trasmissione di contenuti video ad altissima definizione (eMBB: enhanced Mobile BroadBand), servizi caratteristici del contesto Internet Of Things (mMTC: massive Machine Type Communication) con la prospettiva di connettere fino a un milione di oggetti intelligenti in un chilometro quadrato e infine nuovi servizi caratterizzati da stringenti requisiti di bassa latenza e altissima affidabilità (uRLLC: ultra Reliable Low Latency Communication) i quali sono abilitati da prestazioni di Round Trip Delay, inferiore a 1 ms.

La classe dei servizi video ad altissima definizione (eMBB) come lo streaming 4K e 8K, richiede velocità di accesso molto elevate che oggi superano il gigabit al secondo sia da accesso fisso che in mobilità e inoltre richiede la presenza dei contenuti in modo distribuito a poca distanza (tipicamente entro alcune decine di chilometri) dai terminali di fruizione. Dunque, le cosiddette Content Delivery Networks (CDN) tenderanno ad essere molto distribuite ed utilizzare le infrastrutture di Edge computing in fase di sviluppo.

La classe dei servizi richiesti dall’elaborazione dei dati massivi generati da una densità enorme di oggetti intelligenti (mMTC) è quella tipica dell’IOT. In questo caso al crescere della numerosità degli oggetti intelligenti che localmente si connettono alla rete e che quindi generano grandi quantità di dati, risulta inefficiente se non impossibile trasferirle in posizioni centralizzate per l’elaborazione e, successivamente per il ritorno dei risultati a livello locale. Risulta più efficiente e fattibile l’elaborazione a livello locale ed eventualmente il trasferimento di opportune sintesi a livello centralizzato.

La classe dei servizi relativi alle applicazioni critiche ad altissima disponibilità e bassa latenza (uRLLC), è caratterizzata da raccolta informazioni, elaborazione delle stesse e conseguente invio di comandi in tempo reale. Esempi rilevanti sono relativi al mondo dell’Health Care con la possibilità di eseguire interventi a distanza con l’ausilio di visori di realtà virtuale e aumentata e relativi dispositivi di posizionamento e comando.

Oltre alle applicazioni, anche le funzioni di rete, in una architettura che progressivamente evolve verso le Virtual Network Function (VNF) e Containerized Network Funtions (CNF), vengono eseguite su diversi livelli dell’architettura Edge computing. Se ci riferiamo a reti come quella italiana l’architettura Edge computing si baserà su 5000 Punti di Presenza (POP) locali, 500 POP regionali e 50 POP nazionali. L’architettura di rete mobile 5G sta decisamente utilizzando i paradigmi VNF e CNF sia nel segmento di accesso (Radio Access Network) sia in quello di core (Core Network) e lo stesso avviene nell’architettura di rete fissa nel segmento di accesso (Fixed Access Network) che nel segmento di core e di controllo. In entrambe le architetture si adotta il principio del cosiddettoControl and User Plan Separation” (CUPS), anche nota come disaggregazione degli elementi di rete.

Le reti Radio Access Network (RAN) connettono terminali mobili e oggetti intelligenti a tutti gli altri elementi della rete di un operatore stanno evolvendo decisamente verso il modello virtualizzato dando origine al modello di virtual RAN (o cloud RAN) o ancora di più verso il modello delle Open RAN o O-RAN. L’approccio Open Source su cui è fondato lo sviluppo di O-RAN, e nato dai principi dell’Open Network Foundation, rappresenta un ulteriore fattore di riduzione delle barriere all’ingresso nell’implementazione degli stack protocollari della catena trasmissiva radio, e che comportano la realizzazione di funzioni di rete virtualizzate e in forma già cloud native, ovvero con soluzioni CNF.

L’architettura di riferimento identifica i blocchi funzionali all’interno della RAN come segue: l’area di Gestione, Orchestrazione e Automazione viene rappresentata dal blocco SMO (il Service Management and Orchestration), a cui vanno aggiunti i due blocchi del RIC (il RAN Intelligent Controller, non real time e near real time, rispettivamente) che implementano le funzionalità di automazione della configurazione, gestione delle risorse radio ed applicazione delle policy. Tali funzioni sono allocate nel Cloud nazionale e in parte nell’Edge regionale. I restanti blocchi rappresentano gli elementi di rete della catena trasmissiva. Tali funzionalità sono: la Radio Unit (RU), integrata con l’antenna, che implementa le funzioni di strato fisico di basso livello, e i due blocchi che realizzano le funzionalità cosiddette di “banda base”, la Distributed Unit (DU), allocata nell’Edge locale, e la Centralized Unit (CU) allocata nell’Edge regionale.

Nei siti radio, che sono di gran lunga i punti numericamente più consistenti, è prevista la sola presenza delle RU da cui segue la notevole riduzione degli investimenti e costi necessari al futuro deployment delle RAN. Infatti, il 5G utilizzerà in modo prevalente le onde millimetriche caratterizzare da aree di copertura con raggio limitato e dunque necessita, nel medio termine, della densificazione dei siti e l’introduzione di nuove tipologie di siti anche di dimensioni più piccole rispetto a quelli attuali (Small Cells). La tecnologia O-RAN, la quale è caratterizzata dalla istallazione delle sole antenne attive sui siti e la centralizzazione di tutte le funzioni di banda base nei data center distribuiti degli Operatori, è condizione essenziale per la sostenibilità economica della nuova fase di sviluppo 5G basata su un numero rilevante di Small Cells. Inoltre, tale tecnologia, è intrinsecamente Cloud Native e quindi abilita il modello di evoluzione software della rete nel quale tutte le funzioni di accesso, di core e di management sono realizzate con software eseguito sull’architettura Edge computing degli Operatori di Telecomunicazioni.

New call-to-action

Le infrastrutture strategiche dell’energia e la nuova architettura EDGE

Analogamente a quanto discusso nelle reti di Telecomunicazioni, anche nelle reti elettriche l’adozione dell’Edge computing è una priorità in quanto queste si preparano ad ampliare le funzioni intelligenti e la raccolta dati sia nelle Cabine di Trasformazione da Media Tensione (MT) a Bassa Tensione (BT), le cosiddette Cabine Secondarie, e sia nelle Cabine di Trasformazione da Alta Tensione (AT) a Media Tensione (MT), le cosiddette Cabine Primarie.

È esperienza ormai consolidata da molti anni quella dei contatori intelligenti. Essi abilitano una gestione della domanda di elettricità in modo più efficace ed efficiente, fornendo informazioni sui consumi domestici e aziendali e incrementando la consapevolezza dei clienti e consentono alle persone di adottare abitudini più sostenibili sull’uso dell’energia. L’Infrastruttura di Misurazione Avanzata (AMI) è l’architettura alla base di una rete elettrica digitalizzata. Tramite una funzione di raccolta dati posizionata nelle Cabine Secondarie, e in prospettiva implementata nell’Edge computing delle reti elettriche, si raccoglie un flusso bidirezionale di dati sempre più granulari che consente il controllo e la previsione dei consumi da remoto, il rilevamento di guasti e interruzioni, l’esecuzione remota degli ordini di lavoro, la riduzione delle perdite e l’efficace raccolta di cassa.

Tramite i dati messi a disposizione dell’AMI, il sistema di gestione dei dati dei contatori elabora, consolida e convalida i dati raccolti dai contatori intelligenti ed estrae valore attraverso analisi approfondite, cronologie dei consumi e bilanciamento energetico. Il sistema consente inoltre processi di ispezione basati sui dati, rilevamento di frodi/perdite e processi di ricostruzione/rimborso.

Le cabine secondarie stanno evolvendo in veri e propri in hub di controllo e dati per le reti di distribuzione, consentendo una migliore gestione, flessibilità, resilienza e sicurezza informatica. Le soluzioni di Edge computing applicate alle reti intelligenti elettriche sono di tipo fortemente integrato, infatti, grazie alle tecnologie di virtualizzazione e alla capacità di calcolo decentralizzata, integrano funzionalità chiave della rete riducendo al contempo il numero di componenti fisici richiesti, rendendo le reti più efficienti, sostenibili e affidabili. Le cabine secondarie di ultima generazione sono dotate di sensori e componenti intelligenti che agiscono in coordinamento con i sistemi digitali di interruzione e scambio, rendendole essenzialmente le sentinelle per la rete di distribuzione di nuova generazione.

Il modulo di Edge computing delle reti intelligenti elettriche svolgerà tutte le funzionalità chiave delle Smart Grids aumentando l’affidabilità della rete e migliorando la qualità del servizio per gli utenti finali. In particolare, consente di eseguire applicazioni per tutte le più importanti funzioni di automazione della rete: monitoraggio dello stato e delle prestazioni degli asset, minimizzazione delle perdite, identificazione della posizione dei guasti e ripristino del servizio, controllo in tempo reale, monitoraggio della qualità dell’alimentazione, gestione dei dati di misurazione e molto altro.

La soluzione può migliorare la sicurezza delle operazioni di rete e, con il rilevamento dei guasti in tempo reale, le utility possono identificare rapidamente i problemi ed eseguire la manutenzione da remoto, riducendo i costi operativi, di formazione e di manutenzione. Con la manutenzione predittiva, le utility possono rilevare quando la loro infrastruttura potrebbe potenzialmente guastarsi e ridurre i tempi di inattività complessivi, migliorando così le loro operazioni e la qualità del servizio. Le utility possono analizzare il flusso di energia e prevedere i picchi per una fornitura di energia più efficiente. Riducendo gli interventi sul campo e i componenti delle sottostazioni secondarie, l’Edge computing renderà le reti elettriche più efficienti, sostenibili e affidabili.

Le infrastrutture strategiche della mobilità e la nuova architettura EDGE

Anche nelle infrastrutture strategiche per la Mobilità, l’architettura elaborativa del futuro è strutturalmente basata sull’Edge computing piuttosto che nel più tradizionale modello Cloud. Come è noto sono entrate in esercizio le prime Smart Roads nel nostro Paese. L’attivazione interessa al momento circa 25 km del tratto autostradale tra Firenze Sud e Firenze Nord in entrambe le direzioni e, altrettanti chilometri, sul nodo urbano di Bologna.

Su queste percorrenze, è stato attivato un sistema di comunicazione tra veicolo e infrastruttura (V2I), che permette di fornire informazioni agli utenti in tempo reale relative a incidenti, code, veicoli fermi o contromano, strada sdrucciolevole, presenza di persone o ostacoli su strada, presenza di cantieri, eventi meteo. Inoltre, in base ai prossimi sviluppi della tecnologia di bordo, le vetture potranno essere in grado di recepire le informazioni per prendere decisioni in autonomia durante la guida, come frenare davanti ad un ostacolo, scegliere percorsi alternativi in base al traffico e agli eventi su strada, offrendo al viaggiatore anche suggerimenti su servizi disponibili lungo il tragitto (parcheggi, limitazione di accessi, rifornimenti eccetera).

Il livello di informazioni che la vettura sarà in grado di ricevere ed elaborare dipenderà dalla tecnologia prevista a bordo ove si implementa il livello locale di Edge computing nell’architettura di Intelligent Transportation System, che consente alle auto di comunicare direttamente con l’infrastruttura è la presenza della tecnologia Car2X integrata.

Un upgrade significativo, che permette all’auto di dialogare con l’ambiente circostante senza l’ausilio di una on-board unit aggiuntiva. La comunicazione Car2X copre un raggio di 800 metri in pochi millisecondi e sfrutta il principio dell’intelligenza collettiva ossia migliorerà progressivamente con l’aumentare dei veicoli che la utilizzeranno, arrivando sempre di più a massimizzare la sicurezza sulle strade. In questa fase, le auto dotate di sistema Car2X potranno ricevere informazioni sulla posizione di eventuali cantieri e sulle corsie chiuse. Tale sistema è reso disponibile da una potente architettura di Edge computing la quale, con bassa latenza, restituisce informazioni ai veicoli consentendo ad essi di adottare decisioni, o suggerimenti alle decisioni che gli automobilisti prenderanno a beneficio della sicurezza, viabilità e sostenibilità. L’ obiettivo è quello di accelerare nello sviluppo di soluzioni in grado di connettersi in maniera interoperabile con i sistemi di bordo delle auto, così da rendere le strade italiane pronte per i sistemi di guida autonoma. L’innovazione nello sviluppo e nell’integrazione di piattaforme e dispositivi per la comunicazione V2I non solo porterà miglioramenti significativi nella gestione della viabilità, ma contribuirà a disegnare una mobilità sempre più intelligente e sicura, con nuove opportunità in termini di servizi ai viaggiatori.

Le tue soluzioni di backup e disaster recover sono adeguate ai tempi?

Articolo originariamente pubblicato il 27 Dic 2022

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3