Un nuovo e potente modello di rete si sta progressivamente affermando per rispondere alle crescenti esigenze di copertura[1], sostenibilità, velocità, sicurezza e capacità elaborativa.
Tale modello si fonda in primo luogo sull’uso complementare delle varie tecnologie di accesso di rete fissa, con le fibre ottiche e le tecnologie PON[2], di rete mobile e wireless, con le tecnologie 5G e il WIFI6, di rete satellitare con le costellazioni in tecnologia LEO[3] e in secondo luogo sulla distribuzione capillare della capacità elaborativa sia per le stesse funzioni di rete, sia per l’elaborazione di prossimità dei molteplici dati raccolti da terminali e oggetti intelligenti e sia per la fornitura di servizi innovativi ai clienti finali (edge computing). Una caratteristica distintiva della nuova generazione delle reti è la prevalenza del software e l’uso crescente e pervasivo dell’intelligenza artificiale per la configurazione dinamica e la resilienza delle reti stesse.
Il Cloud evolve verso l’Edge computing: cosa significa e i vantaggi della transizione
Le nuove reti di telecomunicazioni sono compatibili con i principi della sostenibilità che si fondano sulla possibilità di assegnare ai vari servizi adeguati canali di comunicazione caratterizzati da velocità e latenza sufficienti ma non sovrabbondanti, di adeguare la potenza di trasmissione e ricezione in modo proporzionale alla tipologia e numerosità di terminali e oggetti intelligenti presenti, di elaborare prima possibile i dati raccolti in modo da ridurre il flusso degli stessi indirizzato a distanze di migliaia di chilometri e infine a rendere tutti i nodi di comunicazione ed elaborazione distribuiti al massimo della classe energetica.
Questo nuovo modello di rete capillare, sostenibile, sicura e intelligente è destinato, tra l’altro, a superare l’attuale dibattito sulla sostituibilità tra tecnologie di rete fissa e mobile, ritenendole entrambe indispensabili e addirittura includendo le tecnologie satellitari a complemento, e a superare l’attuale modello di cloud computing in quanto in prospettiva non sostenibile e non conveniente economicamente, oltre ad essere non più adeguato alle crescenti esigenze di sicurezza, protezione e sovranità dei dati.
Gli sviluppi indicati, tuttavia, richiedono una filiera delle Telecomunicazioni caratterizzata da conti economici e cash flow in grado di sostenere investimenti dell’ordine di grandezza del 20% – 25% rispetto al fatturato che è un livello molto elevato rispetto alle altre Industries. Nel nostro continente, in Europa, occorre a tal riguardo immaginare e attuare dei correttivi in quanto l’eccessiva competizione ed apertura a molti Operatori e la persistente asimmetria di regolamentazione rispetto alle Big Tech / Over The Top, le quali non hanno di fatto regolamentazioni cui attenersi, stanno erodendo gran parte della sostenibilità economica di questo settore cruciale per la nostra evoluzione.
Architetture e tecnologie delle reti di nuova generazione
Il nuovo modello delle reti è quello dove l’intelligenza a supporto dei servizi, delle funzioni di rete e della gestione è la principale risorsa. Lo strato intelligente (Control Plane) è ben separato dallo strato di connettività (User Plane) e basato sulle migliori tecnologie software e sull’uso sempre più pervasivo dell’intelligenza artificiale (AI). Le reti di nuova generazione abilitano una sterminata pluralità di servizi tra i quali, solo per citare quelli oggi maggiormente utilizzati dalla clientela:
- Comunicazione e Collaborazione, ossia l’evoluzione del tradizionale servizio di comunicazione vocale e messaggistica, che sta velocemente introducendo contenuti e prestazioni proprie della videocomunicazione, della condivisione ed elaborazione cooperativa di contenuti, della realtà aumentata e virtuale. Su tale servizio, e sulle tecnologie che lo rendono possibile, si è realizzata la rivoluzione del Lavoro Agile (o Smart Working) e la possibilità di svolgere la Didattica A Distanza (DAD), estremamente importanti durante il periodo della recente Pandemia, oggi divenuti supporti strutturali alle normali modalità di lavoro e studio in presenza;
- Trasmissione Streaming di Contenuti Digitali, ossia la fornitura in streaming di contenuti musicali con gli standard evoluti ad alta qualità (Direct Stream Digital e successivi), contenuti televisivi (dal 4K all’8K) e cinematografici i quali stanno evolvendo verso qualità sempre più elevata facendo perno su devices (le smart TV) connesse e in grado di espletare molte funzioni.
- Applicazioni, Piattaforme e Infrastrutture fruite come Servizi, ossia applicazioni, piattaforme e infrastrutture informatiche fornite, tramite le elevate prestazioni delle reti e la loro capillarità, come servizio, oggi note negli ambienti cloud anche come IaaS (Infrastructure as a services), PaaS (Platform as a services) e SaaS (Software as a services).
- Servizi Internet of Things (IoT) and Machine to Machine (M2M), finalizzati alla connessione di molti oggetti intelligenti, alla raccolta dei dati caratteristici dei processi e delle strutture che essi digitalizzano e alla predisposizione di tali grandi moli di dati alle elaborazioni, molte delle quali sviluppate in prossimità, per l’identificazione di fenomeni e la trasmissione di conseguenti comandi e controlli;
- Transazioni di gestione dell’Identità e dei Pagamenti, ossia servizi di autenticazione forte e di pagamento di transazioni in prospettiva allocati su architetture blockchain per crescenti esigenze di riconoscibilità, tracciabilità e sicurezza;
- Giochi in rete, ossia servizi con elevati requisiti sul tempo di risposta e velocità di comunicazione atti a consentire scenari di gioco real time con molteplici player e numerosi spettatori con vari livelli di partecipazione agli eventi di gioco;
- Web and Social, ossia i tradizionali servizi di navigazione e gestione dei propri contenuti sul Web per il tramite delle più svariate piattaforme social per intrattenimento e per scopi professionali.
Queste Piattaforme (che abilitano servizi “capacity intensive” e “latency free” come alcuni servizi IoT) e l’incessante evoluzione degli Smart Phones e degli Smart Objects (Smart Meters and Grids, Smart Cars, Smart Homes, Smart Health Devices, Smart Plants and Smart Farms) richiedono nuove e stringenti caratteristiche alle future reti. In particolare, le 7 regole d’oro sono:
- Connessioni fisse e mobili con velocità superiori alle decine di gigabit al secondo (10xGbps),
- Capacità delle reti dell’ordine dei Zettabytes[4]/anno,
- Copertura capillare del territorio e non solo della popolazione,
- Latenza inferiore al millisecondo,
- Disponibilità di rete superiore a 99,999%,
- Sicurezza e Privacy “by design”, ossia pensate come prestazione strutturale e
- Intelligenza, Virtualizzazione, Programmabilità.
Gli Operatori di Telecomunicazioni sono impegnati nell’implementazione delle strategie per lo sviluppo delle nuove reti con un’architettura basata sui seguenti segmenti:
- Accesso a Banda Ultra Larga barata su Fibra Ottica con topologia FTTH e Punto – Punto (P2P) e accesso mobile 5G, in prospettiva 6G, con forte cooperazione con le nuove Reti Satellitari LEO;
- Rete a livello Metro e Backbone basata su tecnologie IP over DWDM, con progressivo abbandono delle funzioni di Transiver, per un approccio “single layer” ad alta efficienza e con topologia atta a minimizzare il numero di HOP per le direttrici di traffico più importanti;
- Edge and Central High Performance Computing POP ove vengono ospitate le funzioni di rete Virtualizzate (VNF) e Containerizzate (CNF) tra le quali rivestono importanza le funzioni di Content Delivery Networking e Network Caching per l’ottimizzazione della Quality Of Experience (QOE);
- Application Programming Interface, per l’abilitazione dell’uso delle funzioni di rete a beneficio delle Applicazioni e dei Servizi;
- Software Defined Networking per il Controllo Automatico delle funzioni di rete basato su Intelligenza Artificiale e Machine Learning, in modo da adattare le sue caratteristiche alle richieste di servizio e alle condizioni di funzionamento in tempo reale.
- Management Layer per la raccolta dei dati di performance e allarmi di malfunzionamento in tempo reale, l’analisi di tali dati e l’identificazione automatica di comandi correttivi per il ripristino dei servizi e per la gestione della qualità, per la configurazione automatica delle nuove richieste di attivazione dei servizi e di variazione delle performance degli stessi al variare delle esigenze dei clienti. Questo segmento è basato su applicazioni sempre più cloud native le quali espongono a loro volta opportune interfacce per ospitare nuove applicazioni di ottimizzazione della rete.
L’architettura delle reti di nuova generazione è rappresentata, in modo sintetico e il più semplice possibile, nella Figura 1.
Figura 1: Architettura delle reti di nuova generazione a banda ultra larga
Questi sviluppi tecnologici e architetturali devono essere compatibili con un ragionevole ritorno sugli investimenti. Per questo motivo occorre affrontare un deciso processo di semplificazione basato sulla accelerazione della dismissione delle piattaforme di rete tradizionali (le reti TDM sia fisse che mobili) in quanto non è possibile mantenere molte reti, stratificate ed alcune obsolete, di molte generazioni e i costi di gestione devono continuamente decrescere in tutti i segmenti e per questo sono necessari livelli sempre più spinti di automazione in modo da ridurre drasticamente gli “human touch”.
Le reti di accesso in fibra ottica
L’architettura delle reti di nuova generazione è basata su una componente di accesso in tecnologia cablata in fibra ottica fino alle abitazioni (FTTH[5]) con topologia ad albero caratteristica della tecnologia GPON[6] e fino alle sedi delle aziende (FTTB[7]) e delle antenne (FTTA[8]) con topologia di tipo Punto – Punto (P2P), nelle nuove tecnologie di accesso mobile per i cosiddetti collegamenti di fronthauling sono necessarie più fibre ottiche punto – punto per ciascun sito radio.
La tecnologia GPON
GPON (Gigabit-capable Passive Optical Network) è una tecnologia di accesso in fibra ottica che consente la condivisione di una sola fibra ottica tra più utenti, oggi in genere 64. In una rete GPON, il segnale viene trasmesso dalla centrale locale (OLT[9]) attraverso una fibra ottica fino a un’unità di distribuzione ottica (ODU[10]) vicino agli utenti finali, che a loro volta si connettono tramite un’unità terminale ottica (ONT[11]) alla fibra ottica stessa. Tale tecnologia raggiunge oggi prevalentemente velocità di trasmissione dati fino a 2,5 Gbps (Gigabit al secondo) in downstream e 1,25 Gbps in upstream. Le GPON utilizzano due lunghezze d’onda: una lunghezza d’onda per la trasmissione dati downstream (dalla centrale agli utenti finali) e una lunghezza d’onda per la trasmissione dati upstream (dagli utenti finali alla centrale). In particolare, la lunghezza d’onda utilizzata per la trasmissione dati downstream è di 1490 nanometri (nm), mentre la lunghezza d’onda utilizzata per la trasmissione dati upstream è di 1310 nm. Queste lunghezze d’onda sono le meno soggette ad attenuazione rispetto ad altre. È supportata anche una terza lunghezza d’onda di 1550 nm utilizzata per la trasmissione di segnali di controllo e monitoraggio della rete. Dentro le abitazioni è posizionato l’apparato di terminazione ONT che può essere separato o integrato nell’Access Gateway.
Nell’architettura FTTH ciascuna fibra che esce dalla centrale locale (rete primaria) viene connessa a 64 fibre ottiche che raggiugono le abitazioni (rete secondaria) tramite un sistema di splitter istallati negli armadi ottici ODU. Negli edifici viene istallato un punto di terminazione ottica denominato PTE (Punto di Terminazione di Edificio) che rappresenta il punto di separazione tra la rete ottica stradale e la rete ottica interna agli edifici. I collegamenti in rete secondaria, dall’armadio ottico verso le sedi cliente, sono di tipo punto-punto ossia c’è una fibra per ciascuna unità immobiliare. L’architettura di massima delle reti FTTH è mostrata in Figura 2:
Figura 2: Architettura tipica delle reti FTTH
Oggi le reti GPON sono in fase di evoluzione con la nuova tecnologie XGS-PON che consente di quadruplicare le velocità raggiungibili in fibra. Le tecnologie GPON e XGS-PON possono coesistere sulla stessa fibra attraverso l’utilizzo di filtri ottici e sulle stesse schede elettroniche degli OLT con porte sia in tecnologia sia GPON che XGS-PON. Tale tecnologia è in grado di raggiungere 10 Gbps sia upstream che downstream (d seguito anche 10/10 Gbps).
Il successo dei sistemi PON è dovuto all’elevata capacità trasmissiva, alla flessibilità di allocazione della banda e soprattutto alla possibilità di condividere il costo della OLT tra molti utenti e di realizzare una rete punto-multipunto totalmente passiva, basata su componentistica ottica di basso costo e altamente affidabile. La compatibilità dei sistemi di nuova generazione con la rete ottica già posata e la possibilità di coesistere sulla stessa fibra ottica con quelli di generazioni precedenti, grazie alla differente allocazione spettrale sono sempre stati requisiti fondamentali raccomandati dagli Operatori per evitare costosi interventi di adeguamento dell’infrastruttura di rete: la migrazione da una tecnologia PON più vecchia a una più attuale può avvenire così in maniera graduale, sostituendo solo gli apparati terminali del collegamento, senza intervenire sulla rete di distribuzione ottica. Tra le prossime evoluzioni della tecnologia PON quelle più promettenti sono le HS-PON con velocità fino a 50/50 Gbps, con versioni multicanale su diverse lunghezze d’onda (TWDM).
Oltre alle crescenti prestazioni di velocità e simmetria, le reti di accesso in tecnologia PON, come molti altri elementi delle reti di telecomunicazioni, sono basate sul software con funzioni di controllo (control plane) basate su ambienti operativi open e infrastrutture di computing general purpose (anche se ad elevate prestazioni spesso con la presenza di acceleratori) e funzioni di trasmissione e istradamento del flusso dei dati in tecnologia ASIC (data plane). Le crescenti potenzialità delle tecnologie SDN (Software Defined Networks), NFV (Network Function Virtualization) e Cloud native per l’automazione e la virtualizzazione delle reti trovano applicazione anche al segmento della rete di accesso fissa analogamente a quanto sta avvenendo, come discuteremo più avanti, sulle reti di accesso mobili con l’approccio Open RAN.
L’introduzione di soluzioni Software Defined Access Network (SDAN) é basata su concetti di programmabilità avanzata dei nodi di accesso, astrazione delle risorse fisiche e disaggregazione funzionale fra Management Plane (MP), Control Plane (CP) e Data Plane (DP). Essa promette lo sviluppo di un’infrastruttura tecnologica di accesso, multivendor e multi-tecnologia, la cui fruizione sia aperta e condivisibile fra differenti operatori e soggetti interessati, secondo modelli wholesale innovativi più efficaci rispetto ai tradizionali.
Gli apparati Disaggregated OLT (OLT disaggregato) sono un tipo di OLT (Optical Line Terminal) che separa l’hardware dalla logica di controllo della rete. In altre parole, anziché avere l’hardware OLT e la logica di controllo integrati in un unico dispositivo, l’OLT disaggregato consente di separare l’hardware OLT dalle funzionalità di controllo e gestione di rete, le quali possono essere eseguite su un server separato. L’idea alla base degli OLT disaggregati è quella di rendere più flessibile e scalabile l’implementazione di reti a fibra ottica. Con gli OLT disaggregati, è possibile utilizzare hardware OLT di diversi fornitori, poiché la logica di controllo e gestione della rete è separata dall’hardware stesso. In questo modo, gli operatori di rete possono scegliere gli hardware OLT in base alle loro esigenze specifiche e utilizzare la logica di controllo e gestione di rete esistente per integrarli nella loro infrastruttura di rete.
Nell’ambito delle attività della SDN and NFV Work Area dal BroadBand Forum, ente internazionale di standardizzazione, è stato proposto il business framework Fixed Access Network Sharing. In tale contesto i soggetti Virtual Network Operator interagiscono con l’Infrastructure Provider (InP) al fine di acquisire la gestione e il controllo di una porzione della rete di accesso, realizzata dall’InP e fisicamente distribuita su una particolare regione del territorio. Ciascun operatore virtuale ottiene così la capacità di erogare servizi alla propria utenza finale attraverso un’infrastruttura di accesso “virtualizzata” dall’InP (virtual OLT, virtual AN).
Le reti wireless in tecnologia 5G
Un’altra importante componente delle reti di nuova generazione è la rete mobile 5G. In questo periodo assistiamo nel mondo alla diffusione capillare delle tecnologie 5G nelle reti mobili. Ad esse sono state assegnate nuove frequenze e, tramite gare molto costose, sono state messe a disposizione dai governi ai vari Operatori.
Le reti 5G consentono un deciso salto di qualità rispetto alla precedente tecnologia in tutti e tre i principali campi di applicazione definiti dalla famosa raffigurazione del “triangolo ITU” riportata nella Figura 3. Tali campi sono:
- eMBB (Enhanced Mobile Broadband) in grado di supportare contenuti video con definizione ultra elevata, video 3D, la capacità di lavorare e giocare nello spazio del cloud con necessità di download di files di grandi dimensioni in tempi molto ristretti, applicazione di realtà aumentata (AR) e realtà virtuale (VR) nella direzione del metaverso.
- uRLLC (Ultra Reliable Low Latency Communication) in grado di supportare comunicazioni con un tempo di risposta inferiore al millisecondo (low latency) come quelle necessarie per le applicazioni delle automobili a guida autonoma, per la navigazione dei droni al di fuori del campo visivo, procedure mediche e chirurgiche attuate a distanza e altre applicazioni mission critical.
- mMTC (Massive Machine Type Communication) in grado di supportare lo sviluppo massivo dell’Internet Of Things, la definitiva adozione delle tecnologie e processi per le Smart Cities, Smart Building, Smart Homes, Industria e Agricoltura 4.0.
Dal punto di vista degli obiettivi numerici i precedenti campi di applicazione richiedono una velocità superiore ai 10 Gbit/s, una latenza, come già indicato, inferiore al millisecondo e la possibilità ci connettere almeno 1 milione di oggetti intelligenti per chilometro quadrato il che equivale a poter connettere 100 oggetti intelligenti in un appartamento di 100 metri quadrati! Infine una disponibilità di rete superiore al 99,999%. La banda di frequenza sulla quale opera il 5G ha ampiezza di 200 MHz, che cresce di un fattore 10 rispetto ai 20 MHz utilizzati in LTE (4G).
Figura 3: I tre campi di applicazione delle tecnologie 5G
Per arrivare a questi obiettivi numerici così sfidanti sono state adottate tecnologie innovative essenziali sia sul segmento radio che sull’architettura di rete che, per la prima volta, è dominata dal software.
Le nuove tecnologie della New Radio (NR) si sostanziano essenzialmente sul massive MIMO (Multiple Input Multiple Output), sulla tecnologia di modulazione OFDMA (Orthogonal Frequency Division Multiple Access), che è una versione multiutente dello schema di modulazione digitale (OFDM: Orthogonal Frequency Division Multiplexing) dove l’accesso multiplo è ottenuto assegnando a ciascun utilizzatore dei gruppi di sottoportanti, permettendo così di ottenere un relativamente basso data-rate di trasmissione per ciascuno.
L’evoluzione delle tecnologie, architetture e funzioni del 5G viene scandito dalle release degli enti di standardizzazione internazionali e in particolare del 3GPP. Nella Figura 4, realizzata dal Politecnico di Milano nell’ambito dell’Osservatorio 5G, vengono schematizzate le 4 release caratteristiche del 5G a partire dalla release R15 che è stata focalizzata sugli scenari e le prestazioni eMBB e dove sono state introdotte e descritte per la prima volta le tecnologie NR. Successivamente la release R16, completata nel 2019, si è specializzata sui requisiti delle applicazioni mission critical con bassa latenza e alta affidabilità (uRLLC). La release 17, completata recentemente a giugno 2022, ha considerato gli scenari IOT e le prestazioni per la connessione, controllo, raccolta dati relative a popolazioni di oggetti intelligenti con densità di 1 al metro quadrato, o 1 milione al kmq.
Figura 4: L’evoluzione delle specifiche tecniche del 5G
Il punto cruciale per ottenere prestazioni così evolute e ambiziose è la disponibilità di notevoli estensioni di frequenza. Nel nostro Paese le frequenze 5G assegnate nel 2018 hanno riguardato le frequenze N28 (portante a 700 MHz), le frequenze N78 (portante a 3700 MHz) e le frequenze N257 (portante a 26 GHz). Le frequenze e i relativi prezzi sono riportati nella Figura 5.
Vi sono stati molti rilievi sul fatto che le frequenze sono state assegnate con aste super competitive e dunque hanno richiesto l’esborso di molti miliardi di euro. Il punto è il trade off tra costo delle licenze e velocità di implementazione delle nuove tecnologie 5G che richiedono notevoli investimenti.
Consideriamo che nello scenario italiano con circa 100.000 stazioni radio base appartenenti a 4 operatori principali (TIM, Vodafone, Wind, Iliad) e ospitate nelle TowerCo che operano sul mercato, gli investimenti necessari per il completamento della copertura dei siti attuali è di circa 5 miliardi di €. Se poi si riflette sul fatto che l’accensione delle frequenze intorno ai 27 GHz viene espletata con small cells molto capillari con rapporto anche 10:1 rispetto alle macro celle si comprende come l’aver fatto molta pressione competitiva in allora sta provocando una velocità bassa di upgrade. Un’alternativa utilizzata in alcuni Paesi è stata quella di bassi costi di licenza ma stringenti e tempestivi piani di deployment.
C’è da dire esplicitamente, a parziale giustificazione di un deployment delle nuove frequenze 5G oggi in Italia molto limitato, che le frequenze più importanti per la copertura macro, ossia le N28 a 700 MHz, sono state rilasciate successivamente al riassetto delle televisioni solo nel secondo semestre del 2022.
Figura 5: Frequenze 5G assegnate in Italia nel 2018 e relativi prezzi
Lo sviluppo delle nuove strategie basate su small cells ancora stenta a partire ma un esempio estremamente rilevante è costituito dalla iniziativa del Comune di Roma che, nell’ambito delle opere per l’imminente Giubileo e per il sostegno alla candidatura per i giochi olimpici 2030, ha avviato le attività per un progetto di partenariato pubblico privato, proposto dalla società BAI Communications, per la realizzazione di un’infrastruttura 5G in grado di abilitare i servizi di Smart City e di accelerare la digitalizzazione della Pubblica Amministrazione. Il progetto verrà realizzato nel segno della sicurezza e della sostenibilità ambientale, essendo basato sul sistema small cells, che prevede ridotti consumi energetici e bassissime emissioni elettromagnetiche rispetto alle antenne tradizionali, assicurando anche un minore impatto urbano rispetto alle grandi stazioni radio realizzate su torri o sui tetti degli edifici. Nel dettaglio, si prevede:
- La copertura di tutte le linee della metro (A, B, C), sia delle stazioni che dei tunnel, in tutte le bande di frequenza (dal 700 fino al 3500 MHz);
- Lo sviluppo dell’infrastruttura per la copertura in tecnologia 5G della città, basata su Small Cells nell’intero territorio, abilitata ad ospitare tutti gli operatori mobili attivi per un complessivo potenziale di 6.000 punti di propagazione di segnale
- Lo sviluppo della rete di Free WiFi di Roma Capitale ad accesso seamless con circa 850 punti di presenza tecnologicamente avanzati (access point in WiFi6) distribuiti in 100 piazze (e vie adiacenti) di rilevanza pubblica, in aggiunta a tutti i punti di superficie di presenza delle insegne della Metro, trasformate in un access point WiFi/5G.
L’investimento complessivo previsto dal progetto #Roma5G è pari a circa 100 milioni di euro, con un contributo di 20 milioni di euro da parte di Roma Capitale. Il progetto prevede una concessione della durata di 25 anni.
L’architettura delle reti di nuova generazione, soprattutto nel caso di sviluppo di coperture estensive basate su small cells, sarà decisamente basata sulla componente di accesso mobile in tecnologia 5G Open RAN (O-RAN), dove la RAN (Radio Access Network) è la rete di accesso radio. O-RAN rappresenta la nuova frontiera delle reti mobili, un settore dove è in atto un radicale processo di trasformazione digitale: ad esclusione dell’antenna e di uno strato minimo di funzionalità a ridosso di questa (la Radio Unit: RU), il resto della rete di accesso mobile è basato su funzioni software installate su hardware generico con acceleratori basati su tecnologie High Performance Computing. Lo schema di massima è rappresentato nella Figura 6.
Le caratteristiche di tale trasformazione consentono evidentemente un abbattimento delle barriere all’ingresso per nuovi player tecnologici con grande interesse da parte degli Operatori di Telecomunicazioni, innanzitutto per le aspettative di contenimento dei costi, un tema rilevante se consideriamo che sulla radio si spende quasi l’80% degli investimenti di rete mobile, ma anche in virtù dei benefici attesi in termini di semplificazione gestionale e miglioramento delle performance. Un’analisi di ABI Research[12], ad esempio, sebbene sostenga che l’aumento degli investimenti sull’accesso radio nel periodo 2021 – 2030 sia presumibilmente di tipo moderato nel suo complesso, prevede per O-RAN un elevato tasso di crescita, stimato intorno al 35%, e in gran parte dovuto ad operazioni di sostituzione sull’installato.
Figura 6: Architettura O-RAN
I blocchi funzionali dell’architettura Open RAN includono gli elementi di rete della catena trasmissiva. Tali funzionalità sono: la Radio Unit (RU), spesso integrata con l’antenna, che implementa le funzioni di strato fisico di basso livello, e i due blocchi che realizzano le funzionalità cosiddette di “banda base”, la Distributed Unit (DU) e la Centralized Unit (CU).
Inoltre, l’architettura Open RAN si sviluppa nell’area di gestione, orchestrazione e automazione rappresentata dal blocco SMO (il Service Management and Orchestration), a cui vanno aggiunti i due blocchi del RIC (il Radio Intelligent Controller, non real time e near real time, rispettivamente) che implementano le funzionalità di autoconfigurazione, gestione delle risorse radio ed applicazione delle policy.
Gli Operatori di Telecomunicazioni indicano la riduzione dei costi come elemento fondante dei loro piani di adozione di Open RAN, piani che però non hanno ancora rilasciato ufficialmente in attesa di comprendere con più chiarezza l’entità del beneficio.
Le reti satellitari a orbita bassa (LEO)
Tra i requisiti rilevanti delle reti di nuova generazione c’è sicuramente quello della copertura. Non è più sufficiente la copertura dei terminali, ossia che copra con altissima probabilità la posizione a sua volta più probabile dei terminali esistenti, ma l’estensione delle reti alla connessione degli oggetti intelligenti richiede la copertura dell’intero pianeta nel senso geografico. In questo scenario, per la prima volta in modo concreto, le costellazioni satellitari di nuova generazione, i cosiddetti Low Earth Orbit (LEO), costituiscono un valido elemento complementare alle reti fisse e mobili.
Le costellazioni di satelliti LEO sono gruppi di satelliti artificiali che orbitano attorno alla Terra a un’altitudine relativamente bassa, generalmente compresa tra i 160 e i 2000 chilometri. Questi satelliti possono essere utilizzati per una varietà di scopi, tra cui le Telecomunicazioni, l’Osservazione della Terra, la Sorveglianza Militare, la Ricerca scientifica e sviluppo di nuove tecnologie. Ci sono diverse aziende che stanno attualmente costruendo costellazioni di satelliti in orbita bassa per fornire Servizi di Telecomunicazioni ad alta velocità e bassa latenza in tutto il mondo, come SpaceX Starlink e OneWeb.
La copertura della Terra realizzata dalle costellazioni di satelliti LEO dipende dal numero di satelliti in orbita e dalla loro configurazione orbitale. Attualmente, nessuna costellazione di satelliti in orbita bassa è in grado di fornire una copertura totale della Terra, ma alcune di queste costellazioni sono in grado di fornire coperture globali per specifiche applicazioni. SpaceX Starlink ha lanciato oltre 1.500 satelliti in orbita bassa e sta lavorando per costruire una costellazione di almeno 12.000 satelliti per fornire servizi di telecomunicazioni a banda ultra larga in tutto il mondo. Attualmente, la copertura di Starlink è limitata ad alcune parti degli Stati Uniti, del Canada e dell’Europa settentrionale.
Le costellazioni LEO sono in grado di fornire prestazioni di telecomunicazioni notevoli, tra cui velocità di comunicazione molto elevate e bassa latenza. SpaceX Starlink dichiara di fornire velocità di download di almeno 100 megabit al secondo (Mbps) e di latenza di 20-40 millisecondi (ms). OneWeb dichiara di fornire velocità di download di oltre 375 Mbps e di latenza inferiore ai 50 ms.
I satelliti LEO operano su diverse bande di frequenza, a seconda dei servizi che offrono. Starlink di SpaceX utilizza le bande di frequenza tra 10,7 e 12,7 GHz e tra 37,5 e 42,0 GHz per fornire servizi di internet a banda larga. OneWeb utilizza le bande di frequenza tra 12 e 18 GHz per fornire servizi di connettività ad alta velocità. Inoltre, i satelliti LEO possono anche utilizzare bande di frequenza diverse per la comunicazione tra i satelliti stessi, come ad esempio la banda di frequenza K a 26,5-40 GHz utilizzata da Starlink per le comunicazioni inter-satellitari.
È possibile utilizzare i satelliti LEO come backhauling per le antenne radiomobili, specialmente in aree dove l’accesso a internet ad alta velocità tramite le infrastrutture terrestri è limitato o non disponibile. In questo caso, le antenne radiomobili possono utilizzare le reti di satelliti LEO per trasferire i dati da e verso gli utenti finali. Ad esempio, la alcune costellazioni già oggi offrono servizi di backhauling per gli operatori di telecomunicazioni e altri fornitori di servizi internet, che possono utilizzare i satelliti per connettere le loro antenne radiomobili a Internet a banda larga ad alta velocità. In questo modo, le antenne radiomobili possono fornire servizi internet ad alta velocità anche in aree remote o scarsamente popolate, dove l’accesso alle infrastrutture terrestri è limitato e ciò consente di arrivare a una copertura 100% del territorio che è uno degli obiettivi delle reti di nuova generazione come illustrato schematicamente nella Figura 8.
Figura 8: Architettura delle reti di nuova generazione basate sulle costellazioni di satelliti LEO
Il computing distribuito (EDGE)
L’architettura Edge Computing si presenta come un’architettura IT distribuita e decentralizzata che consente di liberare le applicazioni time-sensitive dalla stretta dipendenza con i data center remoti, fornendo a esse la capacità, tramite l’uso di risorse di computing locali, di elaborare i dati direttamente sul campo. Tra gli esempi d’uso dell’edge vi è il caso tipico dei dispositivi e delle implementazioni IoT. Questi spesso devono fronteggiare problemi di latenza, mancanza di banda, affidabilità, non indirizzabili attraverso il modello cloud convenzionale. Qui l’architettura di Edge Computing è in grado di ridurre la mole di dati da inviare nel cloud. Essa elabora i dati critici, sensibili alla latenza, nel punto di origine, tramite uno smart device. Oppure invia tali dati a un server intermedio, localizzato in prossimità.
L’evoluzione dei Digital Twin di oggetti e sistemi, ossia la compenetrazione tra il mondo virtuale e quello fisico, sta generando un’enormità di dati nella periferia della rete. In molti degli scenari e casi d’uso, dove le informazioni vanno elaborate in ‘near real-time’, quando non addirittura in tempo reale, risulta davvero irrealistico pensare che ciascuno di questi edge device, e applicazioni sul campo, possa sempre contare su un canale stabile di connessione e comunicazione dati costante con il cloud. A fronte di tale situazione generale, secondo IDC, entro il 2025 gli investimenti mondiali in ambito Edge arriveranno a valere 274 miliardi di dollari (dai 176 del 2022).
Le reti di telecomunicazione di nuova generazione sono la prima delle strutture tecnologiche che adotteranno in modo sistematico e pervasivo la tecnologia Edge Computing e questo per almeno tre motivazioni distinte.
In primo luogo, per supportare la trasformazione Software Defined delle reti stesse.
In secondo luogo, in conseguenza dell’evoluzioni della tecnologia 5G per il supporto delle applicazioni mission critical a bassa latenza e delle applicazioni IOT, indicate come “massive Machine Type Communication”, già discusse nella descrizione delle nuove architetture e tecnologie 5G.
In terzo luogo, per cogliere le crescenti esigenze di sostenibilità e sicurezza così fortemente sentite oggi nel mondo.
Un esempio rilevante della trasformazione delle reti di telecomunicazioni tramite il modello edge è l’iniziativa Telco Edge Cloud recentemente in fase di analisi e progettazione nell’ambito di molti Operatori internazionali.
La rete italiana, ad esempio, è oggi costituita da 10.000 centrali. Grazie al completamento entro il 2026 della infrastrutturazione in fibra ottica FTTH dell’accesso è possibile, preferibilmente tramite iniziative di Switch Off supportate da indicazioni dell’Autorità delle Telecomunicazioni, portare tutte le 20 – 21 milioni di linee su tale architettura. Viene meno in quel momento la necessità di avere centrali a meno di 2 Km dalle unità immobiliari, come era necessario con le linee in rame, dunque è possibile concentrarsi sulla metà di queste centrali. Questi impianti di lungo termine (COLT, ossia Centri Operativi Long Term) si trasformeranno in Mini Data Center con tecnologie estremamente modulari e ad alte prestazioni, proprie dell’High Performance Computing, che portano la rete nel mondo dell’EDGE.
Le Software Defined Networks
Il Software si è impadronito delle reti e dunque le funzioni principali delle stesse sono gestite da applicazioni software che sono eseguite nello strato di computing presente al bordo delle reti (EDGE) ovvero al centro delle stesse (CLOUD).
Lo sviluppo della velocità di connessione e la crescente capillarità della connettività stessa, come abbiamo ampliamente discusso, sia nelle soluzioni wired che in quelle wireless, consente di utilizzare in modo complementare le migliori e più economiche direttrici di comunicazione scegliendo in modo dinamico e guidato dalle esigenze applicative.
Nel caso di aggiornamenti in background di significative moli di dati è possibile scegliere un canale a capacità sufficiente e in best effort mentre invece per le applicazioni mission critical è necessario un canale molto veloce con tempo di risposta immediato ed alta affidabilità.
Queste flessibilità di rete che associano il miglior canale di comunicazione alle esigenze delle applicazioni e a seconda della situazione dinamica della rete stessa sono rese possibili dai sistemi SD WAN (Software Defined Wide Area Network) le quali:
- istradano sul migliore canale di accesso sia esso in fibra o wireless, ovvero su entrambi in alcune situazioni di notevole capacità richiesta;
- scelgono connettività di backbone basate su canali protetti e a qualità garantita come le VLAN MPLS oppure si affidano al best effort disponibile nella Big Internet nel caso in cui le applicazioni siano compatibili, come spesso avviene, con tale caratteristica di comunicazione;
- misurano costantemente e capillarmente tutti i dati di utilizzo, qualità e performance in modo da agire dinamicamente sulle richieste al gestore della rete per adeguare quanto utilizzato alle effettive necessità.
Nella Figura 9 uno schema di massima dell’architettura SD WAN descritta.
Figura 9: Architettura delle software defined wide area networks
Lo stato di sviluppo delle Reti di Nuova Generazione in Italia
Lo scorso 28 luglio 2022 la Commissione Europea ha pubblicato il DESI 2022, ossia l’indice di digitalizzazione dell’economia e della società, che registra i progressi compiuti negli Stati membri dell’UE in ambito digitale. Si osserva che nella Pandemia, gli Stati membri hanno compiuto progressi nei loro sforzi di digitalizzazione ma stentano ancora a colmare le lacune in termini di competenze digitali, digitalizzazione delle Piccole e Medie Imprese (PMI) e diffusione di reti 5G avanzate. Il dispositivo per la ripresa e la resilienza, con circa 127 miliardi di euro destinati a riforme e investimenti nel settore digitale, dei quali oltre 40 miliardi di € in Italia, offre un’opportunità senza precedenti, che l’UE e gli Stati membri non possono lasciarsi sfuggire, per accelerare la trasformazione digitale. I risultati mostrano che, sebbene la maggior parte degli Stati membri stia avanzando nella trasformazione digitale, le imprese stentano tuttora ad adottare tecnologie digitali fondamentali, come l’intelligenza artificiale (IA) e i big data. Occorre intensificare gli sforzi per garantire la piena diffusione dell’infrastruttura di connettività (in particolare il 5G) necessaria per servizi e applicazioni altamente innovativi. Le competenze digitali sono un altro settore importante in cui gli Stati membri devono compiere progressi più ampi.
Evoluzione della copertura FTTH e 5G in Italia
Per l’edizione 2022 (DESI) l’Italia si è collocata al 18º posto fra i 27 Stati membri dell’UE. Poiché l’Italia è la terza economia dell’UE per dimensioni, i progressi che essa compirà nei prossimi anni nella trasformazione digitale saranno cruciali per consentire all’intera UE di conseguire gli obiettivi del decennio digitale per il 2030. L’Italia sta guadagnando terreno e, se si considerano i progressi del suo punteggio DESI negli ultimi cinque anni, sta avanzando a ritmi molto sostenuti. Negli ultimi anni le questioni digitali hanno acquisito attenzione politica, in particolare grazie all’istituzione di un ministero per l’Innovazione tecnologica e la transizione digitale, all’adozione di varie strategie chiave e al varo di molte misure strategiche.
Figura 10: DESI 2022 il risultato e la posizione dell’Italia
Con un punteggio complessivo in termini di connettività pari a 61,2, l’Italia si colloca al 7º posto tra gli Stati membri dell’UE. Nell’ultimo periodo di riferimento i progressi più significativi hanno riguardato la copertura 5G che è passata dall’8 % al 99,7 % delle zone abitate, dato che include la percentuale di copertura 5G fornita mediante tecnologia di condivisione dello spettro.
In tale contesto tutte le province italiane stanno iniziando a beneficiare dei servizi commerciali 5G. Si prevedono ulteriori progressi verso il conseguimento dell’obiettivo di una copertura a banda larga senza fili 5G ininterrotta in tutte le zone urbane, le strade principali e le ferrovie entro il 2025 grazie agli obblighi di copertura connessi ai diritti d’uso della banda 700 MHz, che è stata resa per gli operatori (già in possesso dei diritti d’uso) a partire dal 1º luglio 2022.
Per quanto riguarda le infrastrutture fisse a banda larga, se da un lato la copertura della rete di accesso di prossima generazione (NGA, Next Generation Access) a banda larga veloce è aumentata di 4 punti percentuali (dal 93 % delle famiglie nel 2020 al 97 % nel 2021) ed è superiore alla media UE, pari al 90 %, dall’altro la percentuale di famiglie che hanno accesso alla rete fissa ad altissima capacità (VHCN, Very High-Capacity Network) è ancora molto bassa (44 %) e ben al di sotto della media UE, pari al 70 %, nonostante la tendenza positiva osservata negli ultimi anni. In termini di tecnologia, la linea ad altissima velocità di trasmissione dati (VDSL, Very high bit rate Digital Subscriber Line) è la tecnologia a banda larga NGA più diffusa in Italia, mentre anche la fibra fino alla sede dell’utente (FTTH, Fiber To The Home) sta guadagnando lentamente terreno in quanto tutti i principali Operatori (Open Fiber e TIM) stanno investendo nell’infrastruttura, il che ha portato a una copertura del 44 % delle famiglie in generale e del 17 % delle famiglie nelle zone rurali come indicato in Figura 11.
Figura 11: le componenti del risultato dell’Italia e il confronto con il 2021
Un potente acceleratore, come già ampliamente detto, è il PNRR nell’ambito del quale sono state assegnate significative risorse allo sviluppo delle infrastrutture digitali (ossia reti di telecomunicazioni e data center) per circa 8,6 miliardi di euro da consuntivare entro il 2026, di cui 6,7 miliardi sulle reti e 1,9 miliardi sui Data Center.
In particolare, circa 4 miliardi di € sono stati assegnati per lo sviluppo della rete in fibra ottica nelle cosiddette aree grigie con un articolato intervento di finanziamento al cablaggio con fibra ottica fino alle case (FTTH) che interesserà 7 milioni di unità immobiliari (“Italia a 1 GIGA”)[15].
Inoltre, 2 miliardi di € sono destinati alla connessione, sempre in fibra ottica, di antenne per le telecomunicazioni radiomobili 5G e per la costruzione di nuove torri radio e per la connessione di circa 15.000 torri con portante in fibra ottica (“Italia 5G”), 1 miliardo di € per il completamento del collegamento in fibra ottica di oltre 20.000 scuole e strutture sanitarie.
Questi finanziamenti costituiscono il 70% dell’investimento totale realizzato in Partnership Pubblico Privata e quindi il totale di intervento pubblico e privato supera gli 11 miliardi di €. Occorre tenere in considerazione che gli Operatori di Telecomunicazioni e gli altri soggetti si sono aggiudicate le gare PNRR accordando significativi sconti e dunque possiamo considerare come investimento totale la quota esposta come finanziamento.
Da molti anni le case, i siti delle imprese, i siti della pubblica amministrazione e altre strutture rilevanti, contate in numero di 36 milioni di unità immobiliari (UI) e raggruppate in 32 milioni di numeri civici, sono state classificate il tre grandi aggregati (le Aree) che si ripartiscono equamente il totale delle UI e dei civici:
- le Aree Nere, dove sono presenti per ciascun numero civico, almeno due reti a Banda Ultra Larga;
- le Aree Grigie, dove è presente una sola rete a Banda Ultra Larga;
- le Aree Bianche dove non vi è alcuna rete a Banda Ultra Larga e che quindi sono a fallimento di mercato.
Dopo aver affrontato dal 2017 il cablaggio delle Aree Bianche, affidato a OPEN FIBER e tutt’ora in corso, con orizzonte di completamento a fine 2024, il Governo sta affrontando adesso, con l’iniziativa Italia a 1 GIGA, le restanti Aree Grigie investendo per finanziare reti a banda ultra larga compatibili con i nuovi parametri stabiliti dalla UE.
Questa nuova iniziativa legata al PNRR, come è noto, si aggiunge nell’ambito dello lo sviluppo della rete in fibra ottica a due importanti Piani di cablaggio da tempo avviati:
- Il Piano Open Fiber che è finalizzato al cablaggio di 17 milioni di unità immobiliari con architettura FTTH nelle Aree Nere e nelle Aree Bianche, a fallimento di mercato. Di questi 17 milioni di UI, circa 6 milioni di UI sono previsti nel periodo 2022 – 2026. Recentemente OF, con l’ingresso del fondo Macquarie, ha esteso di altri 5 milioni di UI gli sviluppi nelle aree grigie ove sta procedendo Fibercop. Questo significa che OF procederà nei prossimi 5 anni al cablaggio di nuove 11 milioni di UI.
- Il Piano Fibercop, società a maggioranza TIM con la partecipazione del fondo KKR, che è finalizzato al cablaggio di 18 milioni di unità immobiliari con architettura FTTH nelle cosiddette Aree Nere e nelle Aree Grigie, ove è oggi presente la rete ibrida fibra rame con architettura Fiber To The Cab (FTTC). Questi valori comprendono il recente incremento rispetto agli originali piani di cablaggio deciso da Fibercop che ha esteso il suo piano di cablaggio a ulteriori 2 milioni di UI. Di questi 18 milioni di UI, 11 milioni di UI sono previsti nel periodo 2022 – 2026.
Nel quinquennio 2022 – 2026 lo sviluppo delle reti in fibra ottica sarà dunque impetuoso in quanto se consideriamo tutte le iniziative già formalizzate e in corso di finalizzazione dovranno essere cablate 29 milioni di UI (tra OPEN FIBER e FIBERCOP) con un investimento di circa 13 miliardi di € che diventano 15 miliardi di € se includiamo gli interventi per Italia 5G, la cui parte preponderante è basata ancora su collegamenti in fibra verso i siti radiobase che ne sono oggi sprovvisti.
Adozione della connettività a Banda Ultra Larga FTTH e 5G in Italia
Oltre all’evoluzione della copertura, come abbiamo visto, sta evolvendo anche l’adozione da parte delle famiglie e delle imprese delle linee a Banda Ultra Larga. Già nel DESI 2022 veniva presentato, sulla base dei dati a fine 2021, che il 38% delle Famiglie ha adottato un collegamento a 100 Mbit/s e solo il 7% ne aveva adottato uno a 1 Gbit/s.
L’analisi che qui presentiamo è basata sulla proiezione dei dati Agcom a fine 2022 secondo i quali su 20 milioni di linee fisse il 17,5% sono FTTH ossia 3,5 milioni di linee, in crescita del 35% rispetto al 2021. Più in generale le linee Ultra Broadband (ove includiamo FTTH, FTTC, FWA) sono cresciute di 1 milione di unità, ossia del 7%. Alcune importanti considerazioni emergono dai dati presentati:
- il numero delle linee fisse totali resta fermo, da almeno 4 anni, a 20 milioni. Dunque, al momento, non sta avvenendo il fenomeno della crescita della base delle linee fisse dovuto alla presenza di un cablaggio in fibra ottica con copertura FTTH che ha raggiunto, a fine del 2022, il 60% delle Unità Immobiliari.
- L’adozione delle linee FTTH è pari a 3,5 milioni di linee, su un mercato totale pari al 60% di 30 milioni di UI, ossia 18 milioni di UI, copertura che è cresciuta di + 15 punti percentuali dalla fine del 2021. Siamo a una penetrazione FTTH del 23% dopo circa 4 anni di disponibilità di questi servizi. Quindi la buona notizia è l’accelerazione della copertura e dell’adozione, ma c’è ancora molto da fare.
- Le tecnologie utilizzate per la fornitura dei servizi di connettività su FTTH stanno evolvendo dalle tradizionali GPON, che consentono connettività a 1 Gbit/s, alle recenti XGS PON le quali consentono servizi di connettività fino a 10 Gbit/s in modo compatibile, come già illustrato, con le infrastrutture ottiche e sistemistiche esistenti.
- Considerando infine l’insieme delle tecnologie Ultra Broadband (FTTH, FWA e FTTC) si nota che l’incremento anno su anno è stato di 1 milione di linee che è ancora ben lontano dai ritmi di incremento che erano caratteristici dei primi anni dei servizi Broadband xDSL il cui ritmo di incremento è stato per molti anni di 2 milioni di linee / anno. Nella Figura 12 è illustrata la curva di crescita del traffico annuo grazie ad un’analisi del Politecnico di Milano presentata da ASSTEL nel 2022.
- Il Traffico sulla rete fissa nel 2022 ha registrato una media di circa 130 Pbyte (Peta Byte) al giorno in crescita del + 8 % rispetto al 2021, del + 32% rispetto al 2020 e del + 90% rispetto al 2019. Questo significa che si conferma la tenuta, e ulteriore incremento, del traffico rispetto al “cambio di scala” avvenuto per l’effetto della Pandemia nel 2020.
Con riferimento alla rete mobile si nota, anche in questo caso una tenuta sul numero delle linee che, nel nostro Paese, sono, da molti anni appena superiori ai 100 milioni e fine 2022 sono circa 109 milioni di cui 79 milioni “human” e 29 milioni “Machine To Machine” (M2M).
La copertura del 5G è molto elevata, e oggi pari al 99,7% dei terminali, grazie all’uso del 5G nelle frequenze utilizzate anche per il 4G mentre invece è ancora nello stadio iniziale l’accensione del 5G nelle frequenze assegnate nelle gare del 2018 nell’ambito delle quali, come noto, le frequenze a 700 MHz sono state rese disponibili nel 2022.
Figura 12: Evoluzione del traffico di rete fissa e mobile dal 2010 al 2021.
La situazione e le prospettive dell’ecosistema delle Telecomunicazioni in Italia
Abbiamo visto come sia impetuoso lo sviluppo delle tecnologie e delle architetture delle reti di nuova generazione e come sia in corso un piano ci diffusione delle nuove tecnologie sia in rete fissa che in quella mobile. I soggetti che realizzano questo sviluppo sono gli Operatori di Telecomunicazioni sui quali, da alcuni anni, pesa una situazione tutt’altro che favorevole.
È ormai evidente, infatti, una situazione di difficoltà del settore delle Telecomunicazioni dovuta alla progressiva erosione dei margini e dunque della capacità di generare cassa a sostegno degli ingenti investimenti che lo hanno sempre caratterizzato.
L’evoluzione del mercato delle telecomunicazioni in Italia
Sintetizziamo in questo paragrafo gli elementi principali di questa difficoltà avvalendoci delle analisi dell’Osservatorio Digital Innovation del Politecnico di Milano il quale da alcuni anni svilupa tali importanti analisi per conto dell’Associazione degli Operatori di Telecomunicazioni italiani, ASSTEL. A queste analisi affianchiamo delle viste, sempre in un periodo lungo di anni, sulla capitalizzazione dei principali soggetti del settore.
Il valore totale del mercato era di 27,9 miliardi di € nel 2021 rispetto ai 44,8 miliardi nel 2008, quindi, tale valore è diminuito del – 38% in 13 anni. Nel 2021 è diminuito ulteriormente del – 2% con – 1% sui servizi di rete fissa e – 3% sui servizi di rete mobile.
Figura 13: Evoluzione del valore di mercato delle Telecomunicazioni in Italia 2008 – 2021
Gli investimenti, invece, si mantengono elevati da sempre intorno ai 6 – 7 miliardi (oggi il 26% sui ricavi) cui si aggiungono, periodicamente, gli investimenti per l’acquisto delle frequenze. Nel 5G c’è un ulteriore esborso di 2 miliardi per la frequenza a 700 MHz che si è liberata nel 2022.
Figura 14: Evoluzione degli investimenti nel mercato delle Telecomunicazioni in Italia 2008 – 2021 e rapporto capex / sales.
La cassa generata viene assorbita in misura rilevante dagli investimenti. Rispetto a 10 anni fa la cassa a servizio del Debito e alla remunerazione del Capitale si è ridotta a un decimo del valore del 2010 ossia solo 1,1 miliardi di € rispetto a un valore di 9,4 miliardi nel 2010.
Figura 15: Evoluzione della cassa generata dal settore Telecomunicazioni approssimata da EBITDA – CAPEX.
Una delle conseguenze di questa inesorabile erosione del cash flow è che la capitalizzazione degli Operatori è ai minimi termini oggi ed è quasi 100 volte inferiore a quella delle grandi Big Tech il che conferma che il valore del Digitale è oggi nei Dati e molto meno nella Connettività, che comunque è alla base della estrazione e gestione di tali Dati.
Gli andamenti degli Operatori nei mercati azionari
Il tanto decantato ruolo strategico delle Telecomunicazioni e il già descritto fenomeno di enorme e continuo incremento del traffico e dunque delle esigenze dei clienti, nella società italiana ed europea non si riflette nella performance di mercato. Le Telecomunicazioni sottoperformano pesantemente il mercato.
La Figura 16 mostra il confronto tra i rendimenti di mercato medi e i rendimenti del settore delle Telecomunicazioni in Europa sulla base dell’indice STOXX negli ultimi anni (2014-2022) dal quale si deduce che le tlc europee non soltanto si sono mantenute sempre al di sotto dei valori medi ma anche che la forchetta cresce nel tempo; nel periodo considerato il valore di questo mercato medio in Europa si è contratto del 24%.
Figura 16: Evoluzione dell’indice dal settore Telecomunicazioni rispetto all’indice generale del mercato.
Un decremento di valore cumulativo del sistema delle imprese, come quello che si manifesta ormai stabilmente in Europa, l’allontanamento dei capitali dagli Operatori europei, che devono pagare sempre di più per i loro investimenti infrastrutturali, in un settore regolamentato con rigore che dovrebbe al contrario assicurare certezza sul medio-lungo termine, sono segnali chiari di sofferenza. Tale fenomeno, al contrario non si evidenzia nel caso degli USA.
Tutti i principali operatori europei soffrono da circa dieci anni la sfavorevole congiuntura di mercato, con conseguenze anche nel raffronto con i loro peer internazionali. Non è questo un aspetto trascurabile in un mercato globale come quello delle tlc che non può sperare di prosperare chiudendosi nei confini nazionali ma che, al contrario, se non è virtuoso indietreggia nella competizione geostrategica e rischia perciò anche di perdere la necessaria autonomia entro gli stessi confini nazionali.
Un recente e pregevole lavoro del Professore Francesco Vatalaro dell’Università di Tor Vegata di Roma, prova a comprendere meglio questo aspetto nel raffronto con i corrispondenti player statunitensi attraverso un esempio che coinvolge l’evoluzione di mercato del primo operatore europeo, Deutsche Telekom (DT), che ha ben compreso da tempo che per sopravvivere in un mercato asfittico come quello europeo si doveva aprire al confronto direttamente negli Stati Uniti.
Come mostrato nella Figura 17, nel ventennio 2001-2022 il valore in Borsa di DT ha subito oscillazioni ma ha sostanzialmente tenuto intorno a circa 80 miliardi di $. Nel primo decennio, la capitalizzazione di mercato media dei primi operatori europei, pur ridotta rispetto a DT, ne ha seguito da vicino l’andamento fluttuante.
Negli anni 2010 la media del valore in Borsa è diminuita molto con continuità.
Figura 17: Capitalizzazione di mercato di DT, della media dei primi sette operatori europei per capitalizzazione (esclusa DT) e di T Mobile US (a controllo DT). Fonte https://companiesmarketcap.com/
Nel nostro Paese, e più in generale nel nostro continente, si è manifestata, nel corso degli ultimi 20 anni, una competizione molto accentuata. Per molti anni è stata fatta un’azione molto incisiva per aprire il mercato dell’incumbent ai nuovi entranti con più evidenza sulla rete fissa ma anche nella rete mobile e successivamente ogni qual volta gli Operatori del mercato hanno cercato un consolidamento è puntualmente subentrata l’imposizione di “remedies” che hanno sempre ristabilito un numero minimo prestabilito di competitor presenti. Tale cosiddetto “numero minimo” sembra essere indipendente dai KPI economico – finanziari del mercato poc’anzi illustrati. Questo processo prosegue tutt’ora. Ad esempio è utile riflettere sul fatto che un operatore “wholesale only” per le connessioni in fibra ottica italiano espone nel suo sito la presenza di oltre 150 operatori retail considerati clienti e partners indicando, inoltre, la disponibilità a servire molti altri di tali soggetti atteso che questi dispongano delle necessarie autorizzazioni di fatto ottenibili senza alcun prerequisito.
Questa prassi, ad avviso di chi scrive, è molto critica e richiede correzioni immediate. In Europa l’industria delle Telecomunicazioni è stata per lunghi anni leader nel mondo in termini di qualità, servizi e innovazione, ciò sia nell’ambito degli Operatori di Telecomunicazioni, che in quello dei Vendor di Tecnologia, come i casi di Ericsson e Nokia dimostrano egregiamente. Oggi il rischio di marginalizzazione è elevato in quanto solo con Operatori forti economicamente è possibile proseguire nei forti investimenti indispensabili nel settore ed è possibile finanziare la ricerca e sviluppo con avvenne nel caso delle evoluzioni delle varie generazioni delle telecomunicazioni mobili nelle varie generazioni sino all’attuale 5G.
Gli Operatori oggi non solo affrontano i problemi di eccessiva competizione tra i vari soggetti dello stesso settore, in particolare nel contesto Europeo, ma sono stati per molti anni, e ciò continua a essere vero anche oggi, sottoposti a una competizione assolutamente asimmetrica da parte degli Over The Top e delle Big Tech i quali hanno potuto trasformare servizi regolamentati, ad esempio voce e messaggistica, in applicazioni (App) non soggetti ad alcuna regolamentazione e offerti in modo gratuito in quanto remunerato da proventi pubblicitari. Inoltre, gli stessi soggetti muovendosi come multinazionali presenti in tutto il mondo, hanno utilizzato le lacune nella normativa fiscale comunitaria per stabilire i propri headquarter nelle località fiscalmente convenienti e dunque non corrispondere alcuna tassazione la dove la maggior parte dei ricavi e degli utili sono generati.
Il Fair Share e la remunerazione delle reti da parte di chi ne fa uso massivo
Attraverso l’introduzione del cosiddetto Fair Share (ovvero il riconoscimento da parte dei più grandi fornitori di servizi veicolati attraverso la rete internet di un contributo economico a copertura parziale dei costi attribuibili al traffico da loro generato) si intende pervenire ad un più efficiente impiego della risorsa “capacità trasmissiva” e, al tempo stesso, rafforzare gli investimenti in reti di telecomunicazioni, necessari per far fronte ai crescenti volumi di traffico. Ciò senza che questo comporti un aumento dei prezzi e vada quindi a discapito dei consumatori, che anzi trarrebbero beneficio da un’ampia diffusione dei servizi a banda larga.
Come noto, i fornitori di contenuti per offrire i propri servizi digitali agli utenti finali utilizzano le reti degli operatori di telecomunicazioni senza che però, per quest’ultimi, questo generi alcun ricavo aggiuntivo rispetto agli introiti che essi derivano dai propri clienti. Non esistendo alcuna contropartita economica, i fornitori di contenuti tendono a farne un “sovra-impiego” (ovvero un impiego superiore a quello che si avrebbe in presenza di un prezzo/valorizzazione della risorsa “capacità trasmissiva”).
Contestualmente, gli operatori di telecomunicazioni, qualora fossero nella posizione di poterlo fare (e come vedremo non lo sono), al fine di gestire al meglio le proprie risorse, tenderebbero invece a “fornirne” un quantitativo subottimale. Gli attuali meccanismi che regolano i rapporti di scambio sulla rete presentano elementi riconducibili ad un fallimento di mercato.
I continui investimenti realizzati dagli operatori di telecomunicazioni per rafforzare e migliorare la performance delle proprie reti, per i grandi consumatori di traffico, si traducono in un’esternalità positiva. In assenza di un adeguato riconoscimento economico associato alla capacità trasmissiva fornita, il continuo incremento dei volumi di traffico ad opera di pochi grandi originatori di traffico, per gli operatori di telecomunicazioni, si configura invece come un’esternalità negativa.
Il Fair Share rappresenta il modo più semplice ed immediato per “internalizzare” le esternalità sopra descritte, ponendo rimedio alle inefficienze che appunto scaturiscono dalla mancata valorizzazione economica della risorsa “capacità trasmissiva”. Si tratta di una criticità che da sempre ha contraddistinto la rete Internet con gli operatori di telecomunicazioni che sostengono gli investimenti nelle infrastrutture di rete e i grandi player digitali che vi distribuiscono i contenuti “gratuitamente”.
Digital Sovereignty
Vi è una crescente preoccupazione che i cittadini, le imprese e gli Stati membri dell’Unione Europea (UE) stiano gradualmente perdendo il controllo sui loro dati, sulla loro capacità di innovazione e sulla loro capacità di modellare e applicare la legislazione nell’ambiente digitale. In questo contesto, è cresciuto il sostegno a favore di un nuovo approccio politico volto a rafforzare l’autonomia strategica dell’Europa nel settore digitale. Ciò richiede che l’Unione aggiorni e adegui una serie dei suoi attuali strumenti giuridici, regolamentari e finanziari e promuova più attivamente i valori e i principi europei in settori quali le reti di nuova generazione, la cybersicurezza e protezione dei dati, l’intelligenza artificiale (IA) progettata eticamente.
La nozione di “sovranità tecnologica” o “digitale” è recentemente emersa come mezzo per promuovere la nozione di leadership europea e autonomia strategica nel settore digitale. Per “sovranità digitale” si intende la capacità dell’Europa di agire in modo indipendente nel mondo digitale e dovrebbe essere inteso in termini sia di meccanismi di protezione che di strumenti offensivi per promuovere l’innovazione digitale (anche in cooperazione con imprese di paesi terzi).
In questo contesto, Ursula Von der Leyen, presidente della Commissione europea, ha identificato la politica digitale come una delle priorità politiche chiave del suo mandato 2019-2024 e ha promesso che l’Europa deve raggiungere la “sovranità tecnologica” in settori critici. Una recente relazione della Commissione ha evidenziato che la concorrenza degli attori globali guidati dalla tecnologia, che quasi mai rispettano le regole e i valori fondamentali europei e che pongono l’appropriazione e la valutazione dei dati al centro della loro strategia, costituisce una sfida politica importante per l’Europa.
Nell’ultimo decennio, una serie di innovazioni come il 5G, l’intelligenza artificiale (IA), il cloud computing e l’internet delle cose (IoT) sono diventate importanti risorse strategiche per l’economia dell’UE. Con un mercato mondiale delle nuove tecnologie digitali che dovrebbe raggiungere i 2,2 trilioni di euro entro il 2025, gran parte del potenziale di crescita dell’Europa risiede nei mercati digitali.
Sebbene l’UE disponga di solide risorse, tra cui una comunità di ricerca sull’AI leader a livello mondiale e un’industria forte, alcuni indicatori mostrano che l’UE presenta anche alcune debolezze che sono dannose nella corsa globale allo sviluppo di tali nuove tecnologie. Nel settore dell’IA, ad esempio, l’UE è in ritardo rispetto agli Stati Uniti (USA) e alla Cina per quanto riguarda gli investimenti privati e il livello di adozione delle tecnologie di IA da parte delle imprese e del pubblico in generale è relativamente basso rispetto agli Stati Uniti.
I responsabili politici dell’UE hanno iniziato a progettare politiche per migliorare l’autonomia strategica digitale. Negli ultimi anni sono stati messi in atto diversi strumenti finanziari per ridurre il divario di investimenti e nel contesto della strategia europea in materia di dati e del quadro etico in materia di AI si stanno riflettendo su misure supplementari per adeguare le capacità industriali e tecnologiche dell’UE all’ambiente concorrente.
L’UE è sempre più considerata un organismo di normazione in materia di privacy e protezione dei dati e ha già intrapreso un importante sforzo legislativo nel campo della cibersicurezza e della sicurezza delle reti 5G. Inoltre, garantire la trasparenza e la fiducia è diventato il segno distintivo dell’approccio dell’UE alle questioni digitali. In tale contesto, sono state avanzate proposte per promuovere ulteriori iniziative a livello dell’UE per accelerare il processo di digitalizzazione e, in particolare, per creare un quadro di dati e creare un ambiente digitale affidabile e adeguare le norme in materia di concorrenza e regolamentazione.
La promozione degli investimenti nelle tecnologie di frontiera delle reti di nuova generazione, nell’IOT, nel Quantum Computing, con la creazione di partenariati pubblico-privato e la creazione di un quadro di cooperazione dell’UE in materia di ricerca su vasta aumenteranno la capacità di innovazione dell’UE. La creazione di un quadro paneuropeo sicuro in materia di dati e l’adozione di nuove norme e pratiche per fornire prodotti e servizi digitali affidabili e controllabili garantirebbero un ambiente digitale più sicuro, in linea con i valori e i principi dell’UE. Infine, nel quadro normativo e della concorrenza, sembrerebbe auspicabile uno spostamento verso meccanismi più difensivi e prudenziali, comprese nuove norme per affrontare la proprietà degli Stati esteri e le pratiche distorsive delle grandi imprese tecnologiche.
Raccomandazioni per l’adozione e l’uso delle nuove tecnologie e servizi
Quanto discusso nei paragrafi precedenti, seppure molto ad alto livello e dunque lasciando ad altri contesti gli approfondimenti tecnici ed economici, consente di tracciare un quadro sulle principali evoluzioni dei servizi di telecomunicazioni e di suggerire un utilizzo cosciente e consapevole degli stessi.
Distinguiamo tra le famiglie e le imprese e le pubbliche amministrazioni (di piccola e media dimensione). Vedremo che alcune raccomandazioni sono analoghe per i due utilizzatori pur con le dovute differenze dovute alle dimensioni e alla scala delle esigenze che ovviamente è diversa nei due casi.
Le nuove tecnologie di rete nelle famiglie
Lo scenario è quello post pandemia, lo scenario del lavoro agile e della formazione a distanza sia in ambito scolastico (DAD) e sia nell’ambito della nostra vita lavorativa ove abbiamo appreso, ormai in modo deterministico, che la formazione continua e la progressiva certificazione delle nostre competenze che si arricchiscono nel nostro percorso lavorativo è l’unica strada per consolidare e migliorare l’esperienza lavorativa. Inoltre, lo scenario è quello degli oggetti intelligenti e dei loro Digital Twin che stanno moltiplicandosi ed evolvendo velocemente.
In tale contesto possono essere evidenziate alcune raccomandazioni e precisamente:
- Connettività “multi giga”. La prima raccomandazione, davvero sentita e convinta, è quella di optare, prima possibile e in modo sistematico verso una connessione in fibra ottica fino alle abitazioni (FTTH). In Italia, per quanto abbiamo visto, il prezzo delle connessioni in fibra ottica fino all’abitazione a 1 o alcuni Gbit/s è sui 20 – 25 euro / mese dunque molto convenienti. Sono molte le motivazioni per tale scelta che, ad avviso di chi scrive, è non più rinviabile. Le principali motivazioni sono la velocità che è necessaria per sostenere il modello di consumo indicato nella Figura 18, la stabilità delle prestazioni nel tempo e la limitata guastabilità se confrontata con le precedenti tecnologie di connessione basate sulle linee in rame. Una riflessione e un suggerimento agli Operatori, oltreché alle famiglie, è quello di porre particolare attenzione all’impiantistica interna in quanto, trasformando l’impianto interno dal rame alla fibra, parte del cablaggio deve essere aggiornato e modificato. Oggi vi sono i dispositivi e le metodologie per far si che tali interventi vengano fatti nel massimo rispetto e nella massima tutela degli interni delle nostre abitazioni.
- Connettività per gli oggetti anche con linea fissa. Sappiamo dall’esperienza fatta con gli smart meter, con le scatole nere delle automobili ai fini assicurativi, con le vending machine dalle quali acquistiamo bevande e spuntini durante la nostra giornata fuori delle mura domestiche e con le centraline di allarme che istalliamo nelle nostre abitazioni, che la connettività machine to machine (M2M), con opportune SIM mobili dedicate agli oggetti, è una solida realtà. Nella sezione dedicata allo sviluppo delle telecomunicazioni in Italia abbiamo visto come le SIM M2M hanno raggiunto i 29 milioni di esemplari e sono in continua crescita. Tuttavia, il numero di oggetti intelligenti nelle nostre case, anche le nostre seconde case, sta aumentando: impianti di allarme con largo uso di videocamere dotate di buona definizione; impianti di climatizzazione con caldaie e pompe di calore per riscaldamento e raffreddamento degli ambienti e, nei mesi freddi, controllo dell’umidità onde evitare deterioramento degli ambienti; elettrodomestici connessi in modo da controllarne lo stato e evidenziare eventuali interventi preventivi di manutenzione; sensori per il metering dei consumi elettrici per ottimizzazione e risparmio energetico e, ove presenti, impianti fotovoltaici per la produzione di energia elettrica da irradiazione solare. Tutti questi dispositivi, e molti altri, sono collegabili con connettività wifi ad una linea fissa per lo scambio continuo dei relativi dati. Gli Operatori, che già offrono connettività di rete fissa attivabile solo per pochi mesi l’anno, possono offrire dei servizi di rete fissa di tipo M2M che solo nel mese estivo dove la famiglia è presente nella seconda casa, diventa una connettività full service che consente la connettività al WEB e gli altri servizi ai residenti.
- Alta affidabilità grazie alla complementarità fisso – mobile. Non c’è dubbio che la connettività mobile 4G o 5G di back up può e deve essere inclusa nell’offerta di linea fissa FTTH. Con la necessità di svolgere almeno due giorni alla settimana di lavoro agile, con la necessità di tenere a disposizione la linea funzionante per eventuali sessioni DAD e in futuro per Televisite e trasmissione dati di Telemedicina, le linee fisse devono avere un back up mobile con SIM M2M. Ciò viene già oggi proposto, ancora in modo non integrato nel modem, nelle connettività di punta a 10 Gbit/s e non è ancora sceso nella gamma base a 1 Gbit/s come invece è necessario. Qui la raccomandazione agli operatori è evolvere velocemente con questa importante opzione di servizio.
- Cybersecurity. Dalle nostre case connesse, per quanto già illustrato, si originano sessioni importanti per il lavoro, la salute, la didattica e inoltre sono connessi impianti importanti come gli allarmi e la climatizzazione. Inoltre, dalle nostre case, i ragazzi, i nostri figli, navigano il WEB cosa che, soprattutto per i minori, va opportunamente protetta. Dunque, le raccomandazioni sono quelle di prestare attenzione alla configurazione della linea inserendo nel modem le opzioni di firewall alla massima protezione e sottoscrivere semplici servizi di navigazione sicura del WEB con i quali vi è la possibilità di gestire delle black list e inibire la navigazione verso siti critici. Oltre a questo, come ben noto, è necessario prestare attenzione ad effettuare tutti gli upgrade di release software sia nei devices e sia nel modem in modo da ridurre al minimo i rischi di sicurezza. Oggi e ancora di più in futuro le nostre case sono una estensione dei nostri uffici, delle nostre scuole e dei luoghi dove seguiamo i percorsi di cura e dunque il livello di attenzione alla Cybersecurity deve essere fortemente innalzato.
- Smart Working e Learning. Il lavoro agile e di conseguenza la formazione continua on line sono ormai prassi. Molte aziende lo consentono al 50%, molte anche di più. Come conseguenza lo spazio e le tecnologie adottate nelle case deve adeguarsi alle nuove esigenze di connettività, alla sicurezza delle connessioni, alla necessità di disporre di una postazione di lavoro che sia almeno come quella che troviamo negli uffici. Sulla connettività necessaria e disponibile abbiamo detto ai punti 1. e 3. Oltre a questo è utile disporre di una applicazione di connessione che genera delle VPN protette in base agli standard utilizzati in Azienda ed è utile estendere il LAP TOP aziendale con un monitor, che auspicabilmente può essere anch’esso di dotazione Aziendale, in modo da consentire l’esame di documenti, di fogli di calcolo e la produzione di elaborati in forma cooperativa durante le sessioni di videocomunicazione mantenendo l’evidenza della propria presenza in video cosa che, non ci stancheremo mai di ricordare, è di enorme importanza nello smart working.
- Smart Home o Domotica. Gli oggetti connessi nella casa aumentano. Abbiamo già citato gli impianti di allarme e di videosorveglianza, i nuovi impianti di climatizzazione controllabili basati su pompe di calore e centraline connesse, gli smart meter per la misura puntuale dei consumi e gli interruttori programmabili per avviare i carichi negli orari più convenienti. Inoltre, tutti gli elettrodomestici sono connessi e comandabili da remoto. Oggi ciascun impianto controllabile ha il proprio Digital Twin che è in genere una App. Non è quindi conveniente connettere ex novo un sistema IOT a tutti questi oggetti intelligenti. La soluzione migliore è quella di integrare in modo semplice con piattaforme flessibili e versatili i dati che arrivano da queste App e impartire loro opportuni comandi. Il mercato è in fase di forte evoluzione nella direzione qui indicata.
- Telemedicina. Uno dei più importanti insegnamenti della drammatica Pandemia del 2020 è che la continuità di cura che si estende a livello territoriale, al di fuori degli ospedali, è ormai improcrastinabile. Il PNRR dedica investimenti per oltre 3 miliardi di € con l’obiettivo di identificare un modello condiviso per l’erogazione delle cure domiciliari che sfrutti al meglio le possibilità offerte dalle nuove tecnologie (come la telemedicina, la domotica, la digitalizzazione). In particolare si desidera i) realizzare presso ogni Azienda Sanitaria Locale (ASL) un sistema informativo in grado di rilevare dati clinici in tempo reale; ii) attivare 600 Centrali Operative Territoriali (COT), una in ogni distretto, con la funzione di coordinare i servizi domiciliari con gli altri servizi sanitari, assicurando l’interfaccia con gli ospedali e la rete di emergenza-urgenza; iii) utilizzare la telemedicina per supportare al meglio i pazienti con malattie croniche. Anche le Assicurazioni si stanno muovendo per affiancare alle polizze vita o salute delle prestazioni di telemedicina e televisita in modo da incoraggiare il loro cliente a un uso sistematico e responsabile anche usufruendo di agevolazioni e opportuni ribassi sui valori delle polizze stesse.
Quanto detto è schematicamente illustrato nella Figura 18 la quale stima il througput tipico che le nostre case utilizzeranno quando i servizi indicati saranno a pieno regime, spesso ciò accade già oggi.
Figura 18: Esigenza di connettività nel medio termine per ciascuna abitazione
Le nuove tecnologie di rete per imprese e pubbliche amministrazioni
Le Imprese e le PA devono accelerare la propria digitalizzazione. Oggi di sicuro è in corso, e abbiamo visto come siamo migliorati su tali fronti nell’ambito delle rilevazioni in sede DESI, ma occorre procedere con maggiore decisione.
Qui facciamo riferimento prevalentemente alle PA e il motivo risiede nell’attuale importanza e urgenza del progetto PSN (Polo Strategico Nazionale) e del progetto di abilitazione al cloud della PA che sono parti integranti, anch’essi, del PNRR e ai quali sono destinati finanziamenti per due miliardi di euro.
Molte delle applicazioni delle PAC, delle ASL e Aziende Ospedaliere, dei Comuni e degli altri Enti della pubblica amministrazione debbono migrare nel sistema PSN recentemente attivato e basato su 4 data center nelle aree di Roma e di Milano. Vi è anche la possibilità di migrare in uno dei data center certificati che hanno i requisiti necessari per la sicurezza dei dati e dele applicazioni.
La migrazione in cloud di tali applicazioni non solo richiede una revisione delle applicazioni stesse per poter essere eseguite in tali ambienti elaborativi ma è necessario fare uso di connettività di elevate caratteristiche di performance e di affidabilità.
Dunque, valgono anche in questo caso le raccomandazioni viste nei punti 1. 3. e 4. del precedente paragrafo: connettività multi-giga, alta affidabilità grazie alla complementarità fisso-mobile e cybersicurezza.
Nel caso in oggetto vanno utilizzate le funzioni SD WAN descritte nel paragrafo relativo alle architetture e tecnologie delle reti di nuova generazione.
Per quanto riguarda le raccomandazioni per le aziende è utile fare riferimento alla Figura 19 ove sono rappresentate le principali esigenze applicative e le loro conseguenze sulla connettività.
Conclusioni
Le reti di nuova generazione sono un elemento strategico per il Paese, per lo sviluppo dell’economia e per sostanziare la politica di Digital Sovereignty dell’UE. Abbiamo visto come la situazione e le prospettive dell’ecosistema industriale delle telecomunicazioni siano oggi critiche e come necessitino di forti e immediati correttivi.
Abbiamo discusso, infine, lo stato di implementazione e i piani di sviluppo delle reti di nuova generazione in Italia, apprezzandone la forte accelerazione e auspicando un’adozione sempre più massiccia da parte delle famiglie, delle imprese e della pubblica amministrazione.
I progressi da fare sono ancora molti ma la direzione ci sembra quella corretta ed è proprio tale direzione che va velocizzata e percorsa con competenza, autorevolezza e determinazione.
Note
- L’evoluzione dl concetto di copertura delle reti di comunicazione è al centro della ricerca e del dibattito sulle nuove Reti. Sino ad oggi per copertura, sia fissa che mobile, si intendeva la connessione dei terminali nei luoghi dove essi si trovano con certezza o maggiore probabilità. Le Reti di Nuova Generazione, cui ci riferiamo con l’acronimo NGN6, puntano a una copertura geografica, non più e non solo sui terminali, del 100%. Dunque, in ogni luogo del nostro Pianeta vi deve essere la presenza di una rete di telecomunicazione con di adeguare caratteristiche e performance. ↑
- PON sta per Passive Optical Networks ↑
- LEO sta per Low Earth Orbit ↑
- Zettabytes, abbreviazione ZB, sta per 1021 byte ossia per un miliardo di Terabytes. ↑
- FTTH (Fiber To The Home) è architettura di rete di accesso largamente utilizzata in tutto il mondo ed è quella che sta sostituendo, con velocità sempre più elevata le precedenti reti in rame, le reti ibride rame fibra e le reti in cavo coassiale nate per la televisione via cavo. ↑
- Gli alberi GPON: il nome deriva dalla forma della connessione in rete primaria assimilata a un tronco e dalla forma delle diramazioni verso le singole case che costituiscono la rete secondaria. ↑
- FTTB (Fiber To The Building) è l’architettura per la connessione delle sedi delle Aziende e della Pubblica Amministrazione. In genere la topologia utilizzata è quella Punto – Punto (P2P) realizzata con fibra diretta e dedicata dalla centrale locale fino alla sede di interesse. ↑
- FTTA (Fiber To The Antenna) ↑
- OLT: Optical Line Termination ↑
- ODU: Optical Distribution Unit ↑
- ONT: Optical Network Termination ↑
- Open RAN: Market Reality and Misconceptions. ABI Reaserch ↑
- The Telecom Operator Opportunity for Private Mobile Networks. A Heavy Reading special survey report produced for Qualcomm, NetNumber, Ericsson, and Intel ↑
- https://telecominfraproject.com/5g-private-networks/ ↑
- L’Unione Europea, nell’ambito delle strategie per la Gigabit Society, ha indicato nelle tecnologie Gigabit Passive Optical Network (GPON) con architettura di rete FTTH (Fiber To The Home) e Fixed Wireless Access (FWA) quelle che sono raccomandate per l’evoluzioni delle reti di telecomunicazioni Europee. Gli standard minimi di velocità sono diventati 300 mbit/s downstream e 200 mbit/s upstream. Da questo deriva che è ammessa la copertura di parte delle unità immobiliari anche in FWA. ↑