Nel settore dell’ICT, caratterizzato da rapidi cambiamenti e innovazioni che possono rapidamente rendere obsolete tecnologie anche appena nate, il cloud contribuisce ad accelerare i già veloci meccanismi di trasformazione, segnando una nuova fase nell’evoluzione digitale.
Indice degli argomenti
L’importanza delle reti di comunicazione per l’evoluzione del cloud
La grande nuvola informatica, però, se da un lato riesce a superare senza affanno ogni ostacolo ed ogni limite dettato da capacità elaborativa, spazio di archiviazione, tipologie, qualità e quantità dei servizi, dall’altro deve necessariamente fare i conti con la propria “kryptonite”, rappresentata dalle reti di comunicazione sulle quali devono necessariamente transitare i dati.
Guida essenziale per scegliere un cloud provider conforme al GDPR!
Nessun servizio cloud, infatti, potrebbe neanche lontanamente pensare di esistere se non fosse supportato da un’adeguata infrastruttura in grado di mettere in comunicazione i centri di elaborazione dati, ossia le macchine dei bottoni, con gli utenti finali che devono ottenere (in tempi sempre più rapidi) risposte, conoscenze, funzionalità o prestazioni da cui possono dipendere il buon andamento di sistemi di fondamentale importanza ma anche la sicurezza o la salvaguardia di persone umane.
E non solo le reti devono essere sufficiente larghe, efficienti e robuste ma devono anche essere ideate, progettate e implementate per gestire i fisiologici picchi di lavoro, per garantire un funzionamento quantomeno accettabile anche nei periodi di intenso traffico, per sopperire a guasti, incidenti, cantieri in corso, “restringimenti di carreggiata”.
La terminologia appena utilizzata non a caso ricorda quelle delle più conosciute (per motivi soprattutto legati all’“anzianità anagrafica”), del traffico veicolare, afflitto praticamente dai medesimi problemi: non è così azzardato, infatti, il paragone tra un servizio acquistato sulla nuvola digitale e, ad esempio, una l’investimento in una casa al mare distante qualche centinaio di chilometri. Avrebbe senso acquistare un bene “remoto” che non è possibile raggiungibile o che, per essere raggiunto, richiede tempi di percorrenza estremamente lunghi, code estenuanti o continui disagi nei trasferimenti?
Le reti digitali, pertanto, rappresentano, in qualche modo, l’alter ego informatico del sistema viario “analogico” che, per poter essere realmente utile, deve garantire (o almeno dovrebbe) diverse alternative (autostrade, ferrovie, tratte aeree o marine, etc) per raggiungere una destinazione ma anche una capacità di “resilienza” rispetto ai giorni di bollino rosso, agli imprevisti ed al traffico legato ad eventi o a festività.
Il rapporto simbiotico tra cloud e reti di comunicazioni
Per comprendere, al meglio, in contesto di riferimento è necessario, però, anche inquadrare questo strano rapporto simbiotico tra cloud e reti di comunicazioni anche dalla prospettiva opposte: l’avvento della nuvola, infatti, ha scatenato una corsa tra i grandi player internazionali nella creazione di reti sempre più efficienti, stabili, veloci ed in grado di esaltare le enormi potenzialità del cloud.
Non è un caso, infatti, che parallelamente alla nascita delle piattaforme “on demand” dei grandi colossi internazionali quali Amazon, Google o Microsoft si sia registrata una repentina accelerazione nel processo di implementazione di tecnologie o metodologie di comunicazione come il 5G, la “banda ultralarga”, l’edge computing o la virtualizzazione delle reti.
Anche in questo caso, il parallelo con i trasporti tradizionali calza a pennello: basti pensare che le prime autostrade sono state costruite nel momento del boom automobilistico ma anche che le principali località turistiche, commerciali, economiche o le grandi metropoli rappresentano elementi discriminanti per la creazione di nuovi percorsi, nuove rotte, nuove strade.
Architetture di rete
Alla luce di quanto appena descritto, appare evidente come le reti informatiche rappresentino la spina dorsale ma anche una sorta di sistema nervoso in grado di garantire il corretto funzionamento dei sistemi informatici grazie alla loro innata capacità di trasportare dati, flussi, informazioni, conoscenza e servizi dal centro alle periferia e viceverse.
È del tutto evidente che una tecnologia come il cloud non potrebbe esistere senza infrastrutture di comunicazione adeguate ma anche le reti, come anticipato in precedenza, avrebbero poco senso se mancassero (o fossero estremamente limitate) le ragioni per il loro utilizzo.
Comprendere le architetture di rete e la loro rilevanza
Provando a fornire una spiegazione leggermente più tecnica le reti, che, come abbiamo già detto, rappresentano la struttura fondamentale per il funzionamento di qualsiasi infrastruttura di comunicazione, concorrono a definire le modalità con le quali i dispositivi e i sistemi si connettono tra loro, consentendo la trasmissione dei dati da un punto all’altro.
Comprendere le architetture di rete, pertanto, è essenziale per garantire l’efficienza, la sicurezza e la scalabilità di un’infrastruttura tecnologica e, in particolare, dei servizi offerti sul cloud.
Principali tipologie di architetture di rete
Le architetture di rete possono essere classificate in base a diversi criteri, tra cui la loro struttura fisica, la logica di funzionamento e i servizi offerti.
In particolare, una prima distinzione può essere quella di seguito riportata:
Reti LAN (Local Area Network) | Reti WAN (Wide Area Network): |
![]() | ![]() |
Coprono un’area geografica limitata, come un ufficio o un edificio. Offrono alta velocità di connessione e bassa latenza. Tecnologie comuni: Ethernet, Wi-Fi. | Connettono punti situati a lunghe distanze, come città o paesi diversi. Utilizzano tecnologie come MPLS, SD-WAN e reti satellitari. |
Reti MAN (Metropolitan Area Network) | Reti wireless |
![]() | ![]() |
Copre aree metropolitane, connettendo più LAN in una città. | Eliminano la necessità di cablaggio fisico. Tecnologie comuni: Wi-Fi, Bluetooth, 4G/5G. |
Le architetture di rete possono essere anche suddivise, in base alla topologia, nelle seguenti classi:
Reti peer-to-peer (P2P) | Reti a stella |
![]() | ![]() |
I dispositivi comunicano direttamente senza un server centrale. Sono utilizzate soprattutto in applicazioni come il file sharing. | Un dispositivo centrale (come un switch o un router) è il punto di connessione per tutti gli altri dispositivi. È una delle configurazioni più comuni e facili da gestire. |
Reti a bus | Reti a anello |
![]() | ![]() |
Tutti i dispositivi sono collegati a un unico cavo di trasmissione. Si tratta di una topologia economica ma meno scalabile rispetto ad altre. | I dispositivi sono connessi in un anello chiuso, con i dati che viaggiano in una direzione prestabilita. È utile per sistemi di comunicazione in tempo reale. |
Reti mesh | |
![]() | |
Ogni dispositivo è connesso a tutti gli altri dispositivi della rete. Tale tipologia di rete è ideale nei casi in cui sia necessario garantire alta affidabilità e ridondanza. |
Elementi fondamentali nella progettazione delle reti
La progettazione di una rete richiede un’attenta considerazione di diversi elementi fondamentali per garantire efficienza, scalabilità, sicurezza e affidabilità:
- Scalabilità: una rete deve saper reagire a tutte le circostanze, comprese quelle eccezionali che richiedono di rispondere in pochi secondi a milioni di richieste simultanee. Pensiamo, ad esempio, al caso ormai famoso del crash occorso al portale dell’INPS in occasione dell’erogazione dei bonus pensati dal Governo per fronteggiare l’emergenza COVID-19. Qual è stato il principale problema in quella circostanza che ha rischiato di avere conseguenze anche devastanti sul piano della privacy e della tutela dei dati personali? E’ consistito nell’incapacità del sistema di reagire in maniera adeguata ad un picco ingestibile con le risorse a disposizione, non per una cattiva programmazione dei tecnici e dei fornitori digitali dell’Ente Previdenziale ma semplicemente perchè l’architettura del portale non era pensata per (e quindi non poteva) rispondere a quelle circostanze eccezionali.
Un po’ come accadde, semplificando certamente il discorso (che è estremamente più complicato e merita ben altri approfondimenti “tecnici”), in un altro ambito, nel tragico attentato delle Torri Gemelle nell’infausto 11 Settembre del 2001: la struttura dei due grattacieli non poteva resistere a quel tipo di attacco anche perché nessuno aveva immaginato che potesse avvenire. I mega-palazzi non erano stati progettati per ricalibrare e riassorbire il carico gravitazionale non più retto dalle sezioni distrutte durante l’impatto.
Traslando in termini informatici l’esempio appena illustrato, una rete informatica deve essere progettata, pensata, implementata, collaudata e testata in maniera tale che possa adattarsi alle condizioni più sfavorevoli e sappia trasformarsi in base agli eventi quasi come una spugna che aumenta il proprio volume quando è inondata dall’acqua e si restringe quando è “scarica”.
- Affidabilità, sicurezza e ridondanza: la rete deve essere in grado di garantire non solo una comunicazione continua, anche in caso di guasti o di accadimenti di eventi avversi anche di notevoli dimensioni, ma deve anche assicurare l’integrità dei dati trasmessi, ossia la certezza che i flussi di informazioni siano corretti e “affidabili”, e la riservatezza di ciò che transita lungo i canali trasmissivi. Cosa succederebbe, infatti, se non fosse possibile risalire con certezza a eventuali manomissioni di dati o non si riuscisse a limitare ed a tenere traccia dei soggetti che effettivamente hanno accesso alle informazioni?
- Prestazioni: l’efficienza e la velocità di trasmissione dei dati sono fondamentali per garantire la fruibilità dei servizi remoti. Il cloud, in particolare, non avrebbe senso di esistere senza reti a banda larga, in grado di garantire l’accesso alle informazioni ed ai sistemi di elaborazione in tempi compatibili con le esigenze degli utenti finali.
- Gestione e monitoraggio: strumenti di gestione centralizzata sono necessari per monitorare lo stato della rete e risolvere eventuali problemi in maniera tempestiva ed efficace.
Impatto del cloud Computing sulle architetture di rete
Si può facilmente comprendere, in estrema sintesi, come l’avvento delle soluzioni e delle proposte commerciali cloud-based stia, di fatto, conducendo ad una vera e propria traslazione delle risorse materiali finalizzate all’elaborazione informatica, allo storage ed a gran parte delle caratteristiche “fisiche” di un computer dai dispositivi periferici, utilizzati dagli utenti finali, a postazioni remote, gestite da terze parti e spesso del tutto ignote agli utilizzatori, ai clienti e persino ai rivenditori di soluzioni software.
In sostanza, la tanto decantata dematerializzazione e virtualizzazione delle soluzioni informatiche può essere più correttamente rappresentata come un vero e proprio “passaggio di consegne”, nel quale la maggior parte degli oneri, e conseguentemente delle criticità e dell’importanza strategica, connessi alla corretta esecuzione di programmi e sistemi informativi sia gradualmente spostata dai nostri dispositivi “client” verso grandi server allocati in Data Center sempre più articolati, complessi ed organizzati.
Si tratta, invero, di una transizione imponente quanto silenziosa che sfugge all’attenzione generale ma apre nuovi temi di riflessione ed allo stesso tempo richiede agli addetti ai lavori considerazioni ed approfondimenti su scenari fino a poco tempo fa quasi del tutto impensabili se non proprio fantascientifici.
Un caso emblematico, in tal senso, è quello delle smart-tv con riconoscimento vocale che, non avendo a bordo processori in grado di elaborare i flussi analogici in ingresso, devono necessariamente inviare i comandi a “sale operative” remote nelle quali sarà effettuata la decodifica e la trasformazione in un input effettivamente utilizzabile dal televisore. E’ del tutto evidente come il potenziamento delle funzionalità di una TV attraverso l’utilizzo di servizi remoti comporti quale inscindibile contropartita la nascita di nuovi rischi e criticità connesse alla privacy, alla protezione dei dati personali, al cyber-crime, etc.
Analoghe considerazioni potrebbero essere riproposte per i telefoni, i tablet e tutti quei dispositivi “smart” che, per poter funzionare correttamente e fornire informazioni e risposte in tempo utile, devono necessariamente fare affidamento su servizi forniti da grandi server e computer allocati in postazioni fisiche potenzialmente disseminati in tutto il mondo.
Alla luce di quanto è stato finora descritto, è immediatamente comprensibile come le reti di trasmissione rappresentino, oggi, un elemento di fondamentale importanza, la cui progettazione e implementazione necessita di adeguate strutture organizzative, di risorse umane, tecnologiche e finanziarie oltre che di sempre maggiori misure di sicurezza a tutela dello sterminato patrimonio informativo che fluisce senza apparente soluzione di continuità.
Invero, agli scenari appena descritti, che si sono drasticamente imposti nel panorama ICT negli ultimi anni, sembra apparentemente contrapporsi un’ulteriore tecnologia emergente, etichettata dagli addetti ai lavori come “disruptive”, ossia potenzialmente rivoluzionaria, e conosciuta come “Edge Computing”, che si basa sul principio di portare dati e capacità elaborativa quanto più vicini possibile al luogo in cui servono, “scippandoli”, di fatto, ai grandi datacenter centralizzati.
In estrema sintesi, l’obiettivo dell’Edge computing è quello di ridurre i tempi di latenza tra centro e periferia con il fine di garantire agli utenti finali risposte immediate, generate quanto più possibile sui dispositivi finali e sempre meno dipendenti dalla banda a disposizione.
Si pensi, ad esempio, a servizi nei quali il fattore tempo sia imprescindibile come nel caso della telemedicina, della gestione delle cartelle cliniche o in generale delle applicazioni in campo medico e sanitario. In tali casi, è fondamentale poter accedere ad informazioni quanto più possibile “vicine” ed a sistemi di trattamento dei dati indipendenti da reti di comunicazione o fattori esogeni di varia natura.
È del tutto evidente come, ancora una volta, la tecnologia apra orizzonti finora impensabili che, in un intervallo di tempo anche abbastanza ristretto, possano nuovamente modificare le architetture informatiche ed i rapporti tra client e server.
Se, però, ad una visione immediata e superficiale, l’Edge Computing possa apparire antitetica rispetto al cloud, in realtà gli scenari più probabili sono sicuramente costituiti dalla generazione di nuove infrastrutture “ibride”, nelle quali dispositivi finali potenti e performanti saranno chiamati a dialogare in maniera diretta, veloce e snella con micro-datacenter distribuiti ed in grado di fornire risorse aggiuntive impossibili da reperire in locale.
I Centri di Elaborazione Dati, pertanto, sono destinati a giocare un ruolo comunque centrale e di primaria importanza nel contesto dell’ICT e, anche se probabilmente dovranno continuare ad evolversi e trasformarsi, continueranno ad essere il cuore pulsante ma anche il cervello elettronico di tutti i sistemi informativi sparsi per il globo terrestre.
Vantaggi e sfide dell’integrazione del cloud
Come è stato possibile definire nel corso della trattazione, l’avvento del cloud, che sta rivoluzionando tutti i settori dell’ICT, ha un impatto decisamente importante sulle reti di trasmissione che da un lato costituiscono un elemento preordinato al funzionamento stesso della nuvola digitale ma dall’altro risentono in maniera forte della potenza “dirompente” di questa tecnologia non a caso definita “disruptive” da tutti gli addetti ai lavori.
In estrema sintesi, è possibile così sintetizzare i principali vantaggi e le sfide più delicate derivanti dall’integrazione del cloud nelle infrastrutture di comunicazione:
Vantaggi | Sfide |
Flessibilità: Le risorse possono essere scalate in base alle necessità, riducendo i costi. Accessibilità: I dati e le applicazioni possono essere accessibili da qualsiasi luogo, favorendo il lavoro remoto e la collaborazione. Risparmio sui costi infrastrutturali: Non è più necessario investire in hardware fisico costoso, poiché le risorse vengono fornite in modalità on-demand. | Sicurezza: La protezione dei dati nel cloud richiede soluzioni avanzate di crittografia e gestione degli accessi. Connettività: Le prestazioni dipendono fortemente dalla qualità della connessione a Internet. Dipendenza da terze parti: L’affidabilità della rete cloud è legata ai fornitori di servizi esterni, il che può rappresentare un rischio. |
Evoluzione e trend del cloud computing
Tra le tendenze marcatamente più innovative connesse al cloud computing che stanno emergendo negli ultimi tempi è possibile sicuramente indicare, per gli effetti decisamente importanti che stanno producendo, l’edge computing, il multi cloud, il cloud ibrido e le architetture cloud-native.
Al fine di fornire un quadro d’insieme quanto più possibile esaustivo, di seguito è proposta una sintetica carrellata.
Edge computing
Come anticipato in precedenza, una tecnologia che potrà condurre i datacenter a dover mutare la propria attuale configurazione, che li vede sempre più grandi, articolati, complessi e “distanti” rispetto agli utilizzatori finali, è quella dell’edge computing, che, al contrario, è finalizzata a ridurre drasticamente le distanze intercorrenti tra i client, i dispositivi di elaborazione ed i sistemi di gestione dei dati.
A livello macroscopico, è possibile raffigurare un’architettura di edge computing come una struttura digitale distribuita e fortemente decentralizzata, assimilabile, secondo la nota società di analisi di mercato IDC, ad “una rete di micro data center, in grado di elaborare e memorizzare dati critici localmente, e di trasmettere tutti i dati ricevuti e/o elaborati a un data center centrale o a un repository di cloud storage”.
In estrema sintesi, tale soluzione implementativa, anche sfruttando la disponibilità sul mercato ad un costo sempre più accessibile di componenti e sistemi elettronici di piccole dimensioni (conosciuti come SFF o small form factor), mira a portare i dispositivi basilari di elaborazione, storage e networking quanto più vicino possibile alle fonti che materialmente generano i dati.
Per comprendere al meglio il quadro di riferimento, si pensi ad esempio al caso specifico delle auto a guida autonoma nel quale è necessario acquisire, inviare ed elaborare dati in poche frazioni di secondo per poter rispondere in tempo reale e senza ritardi a scenari anche freneticamente mutevoli, dai quali dipende l’incolumità fisica di diverse persone. È del tutto evidente come sia fondamentale superare problemi connessa alla latenza, alla mancanza di banda, all’affidabilità, non affrontabili in maniera efficiente attraverso il modello cloud convenzionale. In tali casi l’utilizzo di un’architettura basata su edge computing è sicuramente in grado di ridurre la mole di informazioni da scambiare, elaborando i dati critici, sensibili ai ritardi, direttamente nel punto di origine, tramite un dispositivo intelligente, oppure inviandoli a un server intermedio, localizzato nelle immediate vicinanze. Allo stesso tempo, però, sarebbe possibile trasmettere i dati meno critici all’infrastruttura cloud o al data center “classico”, per consentire elaborazioni più complesse, come l’analisi di big data, le attività di training per affinare l’apprendimento degli algoritmi di machine learning, l’archiviazione di lungo periodo, l’analisi delle serie storiche, etc.
Come è possibile intuire, pertanto, l’avvento di questa tecnologia potrebbe rivelarsi un fattore catalizzatore verso una trasformazione radicale dei datacenter, che dovranno adattarsi ad un futuro in cui cloud, Edge Computing, IoT, big data, etc si integreranno tra loro con il fine di fornire servizi di nuova generazione probabilmente oggi solo lontanamente intuibili o percepibili.
Multi-cloud e hybrid cloud
Un cloud ibrido è un ambiente di computing misto in cui le applicazioni vengono eseguite utilizzando una combinazione di computing, spazio di archiviazione e servizi in diversi ambienti, come cloud pubblici e cloud privati, compresi i data center on-premise o località perimetrali.
Le soluzioni di cloud ibrido consentono di eseguire l’allocazione dei carichi di lavoro in differenti ambienti cloud, permettendo di creare configurazioni più versatili in base alle specifiche esigenze aziendali.
Molte organizzazioni, in particolare, scelgono di adottare piattaforme cloud ibride per ridurre i costi, minimizzare i rischi ed estendere le funzionalità esistenti a supporto del processo di trasformazione digitale.
È necessario considerare come le migrazioni al cloud portino quasi naturalmente, almeno nelle fasi iniziali, a implementazioni di tipo ibrido, dato che le organizzazioni devono spesso trasferire applicazioni e dati in modo lento e sistematico.
Tale impostazione, infatti, consente di continuare a utilizzare i servizi on-premise sfruttando al contempo le opzioni flessibili per l’archiviazione e l’accesso ai dati e alle applicazioni offerte dai provider pubblici.
Il paradigma del multi-cloud si concretizza, invece, quando un’organizzazione utilizza servizi provenienti da almeno due differenti provider per eseguire le proprie applicazioni, con l’obiettivo di individuare sempre le funzionalità maggiormente adatte alle proprie esigenze, riducendo al minimo il rischio di eccessiva dipendenza dal fornitore (conosciuto anche come “vendor-lock in”.
È importante sottolineare come le soluzioni multi-cloud, basate su tecnologie open source come Kubernetes, offrano la flessibilità e la portabilità per migrare, creare e ottimizzare le applicazioni su più cloud e ambienti di computing.
Gli ambienti multi-cloud si integrano perfettamente con le pratiche di sviluppo DevOps e con altre tecnologie applicative cloud-native che abilitano la portabilità, come i container e l’architettura di microservizi.
Cloud-native architecture
Il “cloud computing nativo” è un approccio nello sviluppo software che utilizza la nuvola digitale per costruire ed eseguire applicazioni scalabili in ambienti moderni e dinamici come cloud pubblici , privati e ibridi.
In tale ambito, si stanno sempre più affermando quale approccio architetturale di fondamentale importanza i cosiddetti “microservizi” che, in estrema sintesi, permettono di costruire un’applicazione come un insieme di piccoli tasselli indipendenti ma connessi tra loro grazie a specifiche logiche di orchestrazione, coordinamento, armonizzazione ed integrazione.

L’evoluzione che ha portato all’architettura dei microservizi cloud, invero, non è recente ma affonda le proprie radici addirittura ad oltre 20 anni fa, ossia in un tempo che dal punto di vista informatica rappresenta un’era geologica profondamente differente.
Il concetto di struttura di servizi, però, pur essendo più antico dei cosiddetti “container” ed antecedente anche all’era delle moderne applicazioni, è diventata una vera e propria best practice con l’avvento delle modernissime infrastrutture cloud.
Soluzioni tecnologiche innovative
Tra le soluzioni tecnologiche emergenti è possibile includere le Reti Software-Defined (SDN), le Network Function Virtualization (NFV) e le reti dei cosiddetti “hyperscaler”, che sono di seguito descritte.
Reti Software-Defined (SDN)
Le reti SDN hanno rivoluzionato la gestione e il controllo delle infrastrutture di rete, garantendo una gestione centralizzata, flessibile e programmabile delle reti attraverso un modello che prevede la separazione tra il piano di controllo (gestione della rete) e il piano dei dati (trasmissione effettiva del traffico). Tale approccio, invero, facilita l’adozione di architetture cloud più dinamiche e scalabili, poiché le risorse di rete possono essere allocate e ridistribuite in modo agile in base alle necessità del carico di lavoro.
Nel contesto del cloud computing, le SDN hanno migliorato la gestione dei data center, ottimizzando la distribuzione del traffico, riducendo i colli di bottiglia e migliorando l’efficienza complessiva della rete.
Non è un caso, pertanto, che le principali piattaforme cloud pubbliche, come quelle offerte da AWS, Google cloud e Microsoft Azure, si avvalgano ampiamente di SDN al fine di garantire una connettività ad alte prestazioni tra le risorse virtuali.
Network Function Virtualization (NFV)
La virtualizzazione delle funzioni di rete (NFV) consente di trasportare le tradizionali apparecchiature hardware di rete, come router, firewall, load balancer e altri dispositivi di rete in ambienti basati su software. NFV, in particolare, garantisce una riduzione dei costi legati all’infrastruttura fisica e facilita la scalabilità e l’automazione.
In ambito cloud, NFV consente di offrire servizi di rete altamente scalabili, gestiti in modo dinamico attraverso il software, e di implementare nuove funzionalità in modo più rapido.
NFV è particolarmente utile in contesti ibridi e multi-cloud, nei quali le funzioni di rete devono essere dislocate su più data center o su ambienti diversi, garantendo la continuità dei servizi e la sicurezza delle comunicazioni.
Le reti degli “hyperscaler”
Un discorso a parte merita, per l’importanza che riveste, l’analisi delle architetture digitali degli hyperscaler, che anche sotto questo punto di vista stanno introducendo novità epocali in grado di rivoluzionale l’assetto dei grandi datacenter.
È necessario, preliminarmente, considerare che le reti “classiche” erano basate su un modello a tre livelli:
- Gli switch di accesso si connettono ai server;
- Gli switch di aggregazione o di distribuzione forniscono connessioni ridondanti agli switch di accesso;
- I core switch garantiscono un trasporto veloce tra switch di aggregazione, solitamente connessi in coppie ridondanti per assicurare un’elevata disponibilità.
Tale impostazione risulta particolarmente efficiente nel caso di software residenti all’interno di specifici server (come tradizionalmente avveniva fino a poco tempo fa) perchè favorisce i flussi informativi “verticali” (chiamati anche nord-sud), ossia che vanno dall’ingresso del datacenter fino al dispositivo interessato e viceversa.
In una situazione fortemente frammentata come quella cloud, invece, nella quale diversi computer concorrono all’elaborazione delle informazioni assumono un ruolo cruciali i flussi “orizzontali” (conosciuti come est-ovest) che risulterebbero rallentati con il modello a tre livelli e richiedono, pertanto, uno schema semplificato conosciuto come Spine-Leaf.
Oltre a prestazioni più elevate, le topologie spine-leaf forniscono una migliore scalabilità in quanto permettono di aggiungere, in caso di necessità, sia ulteriori switch “spine” aumentando, in tal modo, la capacità complessiva che nuovi switch leaf, nel caso in cui la “densità di porta” diventasse un problema, senza dover riprogettare né riconfigurare la rete.

Fonte: https://www.arubanetworks.com/it/faq/cose-unarchitettura-spine-leaf/
Prospettive future nelle architetture di rete
Le architetture di rete assumeranno nel prossimo futuro un ruolo sempre più centrale e determinante nell’evoluzione della società e dell’economia di tutto il mondo, basate ormai in maniera irreversibile su tecnologie, architetture digitali e software che acquisiscono, producono, scambiano ed elaborano informazioni in tempo reale e senza soluzione di continuità.
Se, infatti, è ormai un dato assodato che la rivoluzione informatica del nuovo millennio stia spingendo verso soluzioni in grado di interconnettere tra loro oggetti, esseri viventi, edifici, strumenti medicali etc attraverso la cosiddetta “Internet delle cose” o “l’intelligenza artificiale”, è immediatamente comprensibile come sia indispensabile la presenza di canali di comunicazioni veloci, sicuri ed affidabili per collegare tra loro “cervelli elettronici” capaci di fornire una logica ed un senso all’enorme volume di dati generati in intervalli di tempo sempre più ristretti.
Per comprendere meglio quale sia la reale importanza di una rete adeguatamente efficace ed efficiente, proviamo ad analizzare uno scenario applicativo estremamente significativo perché connesso alla salvaguardia ed all’incolumità pubblica, ossia quello di una rete di sensori deputati a monitorare l’innalzamento delle acque di un fiume: in tale contesto, avrebbe un impatto maggiore il malfunzionamento di un singolo misuratore digitale o l’incapacità, anche momentanea, di un supercalcolatore che deve incrociare tutti i dati e lanciare l’allarme al verificarsi di specifiche condizioni? In altri termini, avrebbe senso acquisire, immagazzinare e trasmettere informazioni anche vitali se poi non è possibile utilizzarle in tempo utile per raggiungere i propri obiettivi?
Ruolo dell’Intelligenza Artificiale e dell’IoT
Un ulteriore elemento in grado di imprimere un’accelerazione verso reti di nuova generazione è, come anticipato, rappresentato dalle cosiddette tecnologie “disruptive” che nei prossimi anni potranno completamente rivoluzionare il nostro modo di vivere ed agire.
Sembra, ad esempio, essere ormai in dirittura d’arrivo il lancio del 5G che, ben lungi dall’essere una semplice evoluzione nel campo delle telecomunicazioni, aprirà la strada verso l’interconnessione continua di uomini, dispositivi ed oggetti, creando una rete universale in grado di scambiare quantità di dati inimmaginabili solo pochi anni fa.
Non è, però, ipotizzabile che le interlocuzioni digitali dell’Internet delle Cose avvengano in maniera diretta e non filtrata tra mittente e destinatario che, in molti casi, assumeranno il ruolo di “generatore” o “ricevitore” di dati o comandi elaborati, interconnessi, interpolati ed analizzati da mega-macchine allocate in data center molto potenti.
Pensiamo, ad esempio, ad un sistema antincendio totalmente automatizzato basato sull’IoT nel quale ogni oggetto di un particolare sito sia in grado di misurare e comunicare in tempo reale la propria temperatura ad un “controller” deputato ad attivare, in caso di necessità, i dispositivi di raffreddamento o spegnimento. Ponendoci nell’ottica di un flusso continuo di informazioni derivanti da migliaia di componenti che potrebbero anche generare, per le motivazioni più disparate, “falsi positivi” o “falsi negativi”, sarebbe ipotizzabile una verifica “locale” di tutti i dati da parte di un modulo specializzato o, molto più verosimilmente, sarebbe necessario, anche ai fini della sicurezza inoltrare le interlocuzioni digitali verso un data center attrezzato con dispositivi ultra-tecnologici in grado di effettuare calcoli ed inferenze di tipo statistico in poche frazioni di secondo?
Considerazioni del tutto analoghe possono essere formulate in relazione all’intelligenza artificiale che, per sua natura, richiede l’impiego di elevate risorse computazionali, difficilmente trasportabili su dispositivi di tipo “client” orientati verso la dinamicità e la leggerezza più che verso la potenza di calcolo.
Anche in questo caso, per avere un quadro più realistico della situazione è possibile far riferimento ad esempi di tipo concreto quali possono essere gli “assistenti virtuali” disponibili nei sistemi mobili Android ed Apple che, allo stato attuale, per funzionare richiedono una connessione verso internet. Il meccanismo di fondo è estremamente semplice: il nostro smartphone ascolta il comando vocale e invia anonimamente i dati vocali verso server, che convertono l’audio in testo, interpretano il comando e restituiscono il risultato finale.
In estrema sintesi, come nel caso dei sensori o degli oggetti che misurano la propria temperatura, i nostri dispositivi svolgono semplicemente il ruolo di produttori di dati e ricevitori di comandi delegando a computer remoti il compito di elaborare le informazioni e adottare le decisioni conseguenti.
Com’è di tutta evidenza tali attività possono realizzarsi solamente se adeguatamente supportate da reti veloci, efficaci, sicure ed efficienti, in grado di agire da elementi abilitanti dei servizi offerti dai gradi cloud provider.
Cloud platforms: qual è il miglior provider che può soddisfare le esigenze della tua azienda?