Dopo essersi dimostrate un pilastro della società mondiale nel periodo della pandemia, garantendo, ad esempio, lavoro da remoto e l’istruzione online, le reti di telecomunicazione e la connettività di alta qualità, elevata velocità e bassa latenza offerta dalle reti 5G e 6G di nuova generazione puntano a supportare anche l’intelligenza artificiale, garantendo scambio di dati senza soluzione di continuità, migliorando la produttività e ampliando l’accesso all’istruzione e alle opportunità di lavoro.
L’incredibile impatto dell’AI sulle infrastrutture digitali
Se, però, in relazione all’AI tutti siamo portati a pensare alle immagini creative che è possibile generare, alle elaborazioni che chatGPT, Gemini o altri sistemi riescono a fornirci su ogni argomento o alla possibilità di chattare con bot che sembrano più umani degli umani, c’è anche in questo caso un risvolto della medaglia che quasi solo gli addetti ai lavori stanno percependo, quasi come fosse la parte sommersa di un immenso iceberg.
Si tratta delle sempre maggiori risorse che l’AI sta richiedendo ai provider di tutto il mondo per poter garantire livelli di funzionamento ed efficienza sempre più elevati.
L’impatto più forte è naturalmente quello sul Cloud, ossia su quella che è possibile considerare come la spina dorsale o la vera e propria piattaforma sulla quale si basa tutto il mondo digitale attualmente conosciuto.
Lanciandoci in paragone che non è poi così azzardato, possiamo considerare la “nuvola digitale” come un moderno Dio Atlante solo che invece di portare sulle proprie spalle il globo terrestre deve farsi carico del peso di tutte le applicazioni, le infrastrutture, le tecnologie, i sistemi che oggi popolano l’immensa rete informatica mondiale.
Per comprendere meglio il fenomeno, basti pensare che prima dell’avvento dell’AI, che ha inondato i server di immagini, dati, video, reti neurali, suoni, linguaggi naturali, l’unità di misura con la quale si confrontavano i grandi provider erano i gigabyte o i terabyte mentre ora i dati devono essere misurati in unità molto più grandi quali petabyte ed exabyte.
Facendo un altro paragone (questa volta più moderno) è come se l’evoluzione dello skyline di una città abbia di colpo trasformato il palazzo più alto nell’ultimo dei nanerottoli nello spietato confronto con i nuovi grattacieli, così come è plasticamente visibile in questo confronto tra la Mumbai del 2003 e quella del 2023:
Integrazione AI-cloud: le proiezioni di Omdia e Gartner entro il 2030
Non è un caso, quindi, che la società di analisi Omdia preveda che entro il 2025 la maggior parte del traffico delle applicazioni di rete coinvolgerà la generazione, la cura o l’elaborazione di contenuti AI.
Entro il 2030, si prevede che quasi il 75% del traffico di rete incorporerà AI, con una rapida crescita dei contenuti video e di immagini, che non solo coinvolgerà la larghezza di banda, ma imporrà nuovi requisiti come la risposta in tempo reale, la consegna di pacchetti senza perdite, lo scambio di traffico est-ovest distribuito, l’intensità di elaborazione e l’elevata sensibilità alla privacy dei dati.
Ma c’è molto di più dietro questa rivoluzione.
Secondo Gartner, ad esempio, “entro il 2025, l’intelligenza artificiale sarà la categoria principale che guiderà le decisioni in materia di infrastrutture, a causa della maturazione del mercato dell’intelligenza artificiale, con conseguente crescita di dieci volte dei requisiti di elaborazione”.
Tutto questo, in particolare, secondo quella che è sicuramente una delle più prestigiose società per azioni multinazionale nel campo della consulenza strategica, ricerca di mercato e analisi nel campo della tecnologia dell’informazione, avverrà perchè entro il 2025 (ossia fra poco più di qualche mese):
- Il 70% delle società quotate in borsa che superano i concorrenti in termini di parametri finanziari chiave dichiareranno anche di essere incentrate su dati e analisi.
- Almeno il 25% delle organizzazioni commerciali che hanno nominato Chief Data and Analytics Officer (CDAO) con KPI e chiare linee di reporting aziendali avranno dimostrato valutazioni di mercato proporzionalmente più elevate rispetto a quelle che non lo hanno fatto.
In estrema sintesi, l’intelligenza artificiale, l’analisi dei dati, la generazione di contenuti da parte di bot in grado di auto-apprendere non è più il futuro ma un presente sempre più vicino e per permettere alle grandi onde di questa tempesta perfetta di dispiegare tutta la propria potenza c’è bisogno di ripensare le infrastrutture digitali, nuovi chip, nuovi dispositivi, nuovi ecosistemi informatici.
Il contributo dell’AI Gen all’economia globale
Ancora più interessante è lo studio di Goldman Sachs, secondo il quale l’intelligenza artificiale generativa potrebbe contribuire per 7 trilioni di dollari all’economia globale e aumentare la produttività di 15 punti percentuali.
A parte gli impressionanti dati economico-finanziari, però, dallo studio emerge come il 70% dei nuovi posti di lavoro generati dall’AI sarà fortemente influenzato dalle infrastrutture tecnologiche e dalle reti di telecomunicazioni.
Il caso di CoreWeave e VAST
Tra le aziende che hanno già iniziato a provare a sviluppare la prossima generazione di infrastrutture, una menzione particolare la merita CoreWeave, un fornitore di cloud computing che, concentrando la propria attenzione su questa nuovo straripante mercato, offre ai proprio clienti l’accesso a chip AI avanzati di Nvidia.
CoreWeave ha annunciato a maggio un round di finanziamento azionario da 1,1 miliardi di dollari che ha valutato la startup di sette anni a 19 miliardi di dollari, cui devono essere aggiunti 7,5 miliardi di dollari di finanziamenti derivanti da investitori di grande rilievo tra cui Blackstone, Carlyle Group e BlackRock e addirittura la stessa Nvidia.
Ma c’è ancora di più. Perchè CoreWeave a sua volta è cliente di una startup chiamata VAST Data, che affronta la modernizzazione del cloud e delle reti private dal punto di vista del software ed ha sviluppato quello che definisce il “sistema operativo più veloce, più economico e più scalabile per tutti i tipi di reti distribuite”.
Secondo Renen Hallak, fondatore e amministratore delegato di VAST Data, “La nostra visione era quella di costruire un’infrastruttura per questi nuovi carichi di lavoro di intelligenza artificiale“.
A dicembre, VAST, che ha superato i 200 milioni di dollari di fatturato annuo ricorrente e dichiara un margine lordo di quasi il 90%, ha affermato di aver ottenuto 118 milioni di dollari in un round di finanziamento di “serie E”, guidato da Fidelity Management & Research, che ha quasi triplicato la sua valutazione a 9,1 miliardi di dollari.
La necessità di accedere sempre anche ai dati più vecchi
Una dei cambiamenti più importanti indotti dall’AI secondo Rene Hallak è legato alle nuove esigenze in merito all’archiviazione dei dati che, in passato, è sempre stata organizzata in livelli pensati ed implementati per dare priorità e maggiore accessibilità ai dati recenti a scapito di quelli più vecchi che, invece, venivano sepolti più in basso
Secondo il CEO di VAST, invece “Non è più così con questi nuovi carichi di lavoro di intelligenza artificiale. Una volta che hai un buon modello di intelligenza artificiale, vuoi dedurre tutta la tua cronologia, perché è così che ne ricavi valore. E poi, man mano che ottieni più informazioni, vuoi riqualificare e costruire un modello migliore. Leggi i dati più e più volte su molti petabyte e in alcuni casi exabyte. E quindi questo è un problema molto divers”.
I sistemi tradizionali si espandono anche aggiungendo nodi che archiviano una parte del set di dati più ampio, dando vita ad un’architettura nella quale è necessario che tutte le parti spendano risorse comunicando tra loro e dove anche un problema su singolo nodo può generare un problema anche di ingenti dimensioni.
Di conseguenza, molti sistemi aziendali potrebbero essere scalati solo fino a poche decine di nodi, insufficienti per le richieste guidate dall’intelligenza artificiale, ha affermato Hallak. Secondo la descrizione fornita da Hallak, invece, nell’approccio adottato da VAST, tutti i nodi hanno accesso a tutte le informazioni contemporaneamente, migliorando scalabilità, velocità e resilienza.
L’esempio di Pixar
Questo cambiamento è già in corso presso alcune aziende ad alta intensità di dati come Pixar, lo studio cinematografico Disney dietro il successo di questa estate “Inside Out 2”.
A partire dal suo film del 2020 “Soul”, Pixar ha introdotto una tecnica nota come animazione volumetrica, che produce personaggi e movimenti più dettagliati, il cui utilizzo è stato più ancora più esteso in “Elemental”, nel quale l’intelligenza artificiale ha permesso di rendere più realistiche ed emotivamente coinvolgenti le “fiamme” della protagonista Ember Lumen.
Per comprendere il fenomeno, si pensi che “Inside Out 2”, uscito a giugno, aveva il doppio delle esigenze di capacità dati di “Soul”, andato in sala meno di tre anni prima, e richiedeva circa il 75% in più di elaborazione.
Il vecchio sistema Pixar di spostare i dati da unità ad alte prestazioni ad altre di prestazioni inferiori in base al reale non funziona per il rendering dei personaggi volumetrici così come al momento il colosso fondato da Steve Jobs deve utilizzare reti on-premise anziché il cloud in quanto non è riuscita a trovare partner tecnologici in grado di garantire
L’intelligenza artificiale in generale non si conforma facilmente alle architetture tradizionali, ha affermato Bermender. “Questi flussi di lavoro tendono a richiedere l’elaborazione di enormi quantità di dati diversi che non sono memorizzabili nella cache, non sono sequenziali e che tradizionalmente sarebbero stati archiviati in livelli di archivio con prestazioni inferiori”, ha affermato Il risultato per le aziende è che l’adozione dell’intelligenza artificiale deve avvenire in un ambiente tecnologico in grado di gestire la sua domanda senza precedenti per i dati. È analogo a un’auto elettrica, che richiede una riconsiderazione totale di molti componenti rispetto ad un’auto a benzina, fino agli pneumatici. Per guadagnare trazione, l’IA avrà bisogno anche di un nuovo set di ruote.
L’impatto dell’AI nei diversi settori e il ruolo delle reti di telecomunicazione
L’accesso all’analisi istantanea dei dati dei pazienti tramite AI sta conducendo sempre più spesso a diagnosi precoci, trattamenti personalizzati, risultati migliori per i pazienti e riduzione della pressione sulle infrastrutture sanitarie.
Per il settore agricolo, la connettività migliorata sta rivitalizzando le procedure attraverso l’agricoltura di precisione. Le reti ad alta velocità, abbinate a strumenti basati sull’AI, forniscono informazioni in tempo reale sulle condizioni del terreno, sui dati meteorologici e sulla salute delle colture, promuovendo un uso efficiente delle risorse e aumentando le rese.
Anche il settore dei trasporti e della logistica ne trarrà vantaggio, con le reti 5G che consentono sistemi più intelligenti.
L’ottimizzazione del percorso tramite AI in tempo reale garantisce l’efficienza delle risorse e migliori programmi di consegna, un vantaggio per le aziende impegnate nell’e-commerce e nella gestione della supply chain.
Elevando la qualità della connettività tramite 5G e l’atteso 6G, e sfruttando l’intelligenza artificiale all’interno della loro infrastruttura, le società di telecomunicazioni stanno innescando progressi in tutti i settori, svolgendo un ruolo abilitatore in questa rivoluzione dell’intelligenza artificiale.
Secondo Nicola Morini Bianzino, Chief Technology Officer di EY “Il settore delle telecomunicazioni riconosce l’importanza strategica della connettività 5G e 6G, necessaria per consentire l’integrazione dell’intelligenza artificiale in tutte le aziende e che guiderà i progressi diffusi in ogni settore dell’economia”.
L’importanza dell’edge computing
Un ruolo cardine tra le nuove tecnologie a supporto dell’AI lo svolge sicuramente l’edge-computing che, sfruttando la disponibilità sul mercato a un costo sempre più accessibile di componenti e sistemi elettronici di piccole dimensioni (conosciuti come SFF o small form factor), mira a portare i dispositivi basilari di elaborazione, storage e networking quanto più vicino possibile alle fonti che materialmente generano i dati.
Il caso delle auto a guida autonoma
Per comprendere al meglio il quadro di riferimento, si pensi ad esempio al caso specifico delle auto a guida autonoma nel quale è necessario acquisire, inviare ed elaborare dati in poche frazioni di secondo per poter rispondere in tempo reale e senza ritardi a scenari anche freneticamente mutevoli, dai quali dipende l’incolumità fisica di diverse persone. È del tutto evidente come sia fondamentale superare problemi connessa alla latenza, alla mancanza di banda, all’affidabilità, non affrontabili in maniera efficiente attraverso il modello cloud convenzionale. In tali casi l’utilizzo di un’architettura basata su edge computing è sicuramente in grado di ridurre la mole di informazioni da scambiare, elaborando i dati critici, sensibili ai ritardi, direttamente nel punto di origine, tramite un dispositivo intelligente, oppure inviandoli a un server intermedio, localizzato nelle immediate vicinanze.
Allo stesso tempo, però, sarebbe possibile trasmettere i dati meno critici all’infrastruttura cloud o al data center “classico”, per consentire elaborazioni più complesse, come l’analisi di big data, le attività di training per affinare l’apprendimento degli algoritmi di machine learning, l’archiviazione di lungo periodo, l’analisi delle serie storiche, etc.
L’edge computing, in estrema sintesi, sfrutta la potenza di calcolo di dispositivi più piccoli per elaborare i dati in locale, riducendo la necessità di inviare informazioni a server distanti, velocizzando così i tempi di risposta e risparmiando larghezza di banda. Man mano che i dispositivi mobili diventano più potenti, sono sempre più in grado di eseguire alcuni dei modelli di intelligenza artificiale più capaci, tra cui modelli linguistici di grandi dimensioni, conosciuti anche come LLM.
Visti gli innumerevoli vantaggi di tale tecnologia, tra gli addetti ai lavori è opinione diffusa che l’intelligenza artificiale seguirà una traiettoria ben definita, passando gradualmente dal cloud all’edge computing migrando sempre più su dispositivi piccoli e mobili, tanto che Alex Katouzian, vicepresidente senior e direttore generale della divisione mobile, computer e XR di Qualcomm ha affermato che “L’intelligenza artificiale è il futuro dell’esperienza degli smartphone”.
Network-as-a-Service (NaaS): un nuovo modello di connettività
Un ulteriore risposta tecnologica alle sempre maggiori necessità di risorse dell’Intelligenza artificiale arriva dalle cosiddette “Network-as-a-Service” (NaaS), ossia a quei modelli aziendali in cui i servizi di rete vengono forniti su richiesta, con connettività e larghezza di banda che aumentano o diminuiscono a seconda delle necessità.
I vantaggi del paradigma NaaS
Tale paradigma, invero, offre flessibilità, scalabilità ed efficienza dei costi, consentendo alle organizzazioni di accedere ai servizi di rete appropriati per le loro esigenze attuali.
Descrizione iconografica del servizio NaaS di Aruba
NaaS rappresenta un cambiamento radicale per gli operatori di rete che da semplici “fornitori” di infrastrutture fisse vedono trasformato il proprio ruolo in quello di fornitori di servizi di rete dinamici e “on demand”, modellati in base alle diverse esigenze delle aziende.
Il NaaS nel contesto dell’IA
Nel contesto dell’IA, poiché consumatori e aziende stanno adottando applicazioni di IA più potenti, NaaS acquisisce particolare importanza per diversi motivi:
- Requisiti di larghezza di banda e latenza: le applicazioni di IA avanzate richiedono un’elevata larghezza di banda e una bassa latenza per l’elaborazione dei dati in tempo reale e il processo decisionale. NaaS consente agli operatori di offrire servizi di rete flessibili e scalabili in grado di soddisfare questi requisiti in modo efficiente, garantendo prestazioni ottimali delle applicazioni di IA.
- Integrazione dell’edge computing: con l’aumento delle applicazioni AI sui dispositivi edge, c’è una crescente necessità di servizi di rete che supportino l’edge computing. NaaS consente agli operatori di fornire funzionalità di rete che facilitano l’elaborazione dei dati più vicina alla fonte, riducendo la latenza e l’uso della larghezza di banda, il che è fondamentale per il funzionamento senza interruzioni delle applicazioni AI basate su edge.
- Network slicing e personalizzazione: NaaS consente il network slicing, in cui una rete fisica può essere suddivisa in più reti virtuali, ciascuna adattata a esigenze specifiche. Ciò è particolarmente importante per le applicazioni AI, poiché consente la creazione di sezioni di rete personalizzate con le giuste caratteristiche di prestazioni (come bassa latenza, elevata produttività) per diversi servizi AI, garantendone l’esecuzione efficace.
- Rapida distribuzione e scalabilità: man mano che le applicazioni AI si evolvono e crescono, la domanda sulle reti cambia. NaaS offre l’agilità per distribuire e scalare rapidamente le risorse di rete in risposta a queste mutevoli richieste, garantendo che aziende e consumatori possano sfruttare le innovazioni AI senza vincoli di rete.
- Qualità del servizio (QoS) ed esperienza: le applicazioni AI, in particolare in aree critiche come l’assistenza sanitaria o i veicoli autonomi, richiedono non solo velocità, ma anche affidabilità. NaaS consente agli operatori di telecomunicazioni di gestire e garantire la qualità del servizio necessaria per tali applicazioni, assicurando affidabilità e fiducia nella capacità della rete di supportare l’AI.
- Abilitazione di nuovi servizi e modelli aziendali: l’adozione di una potente IA crea opportunità per servizi e modelli aziendali innovativi. NaaS consente agli operatori di esplorare queste opportunità offrendo servizi di rete adattabili alle esigenze delle applicazioni IA emergenti, creando nuovi flussi di entrate e migliorando il valore per il cliente.
I vantaggi del Network as a Service nei diversi settori
In vari settori, il ruolo essenziale di NaaS è sottolineato dalla sua capacità di fornire l’infrastruttura di rete scalabile e flessibile di cui le applicazioni IA hanno bisogno per funzionare in modo efficace.
Nel settore manifatturiero
Ad esempio, nel settore manifatturiero, NaaS potrebbe facilitare l’implementazione della manutenzione predittiva basata sull’IA garantendo che grandi quantità di dati dai sensori di fabbrica possano essere elaborate in tempo reale, consentendo interventi tempestivi che prevengono costosi tempi di inattività.
Nel settore della vendita al dettaglio
Nel settore della vendita al dettaglio, NaaS è necessario per supportare i sistemi di gestione dell’inventario basati sull’IA fornendo la larghezza di banda necessaria e connessioni a bassa latenza per l’analisi del livello delle scorte in tempo reale e il rifornimento automatizzato, ottimizzando così i livelli di inventario e riducendo gli sprechi.
Nel settore dei trasporti
Nel settore dei trasporti, NaaS è fondamentale per le soluzioni di gestione della flotta e logistica basate sull’intelligenza artificiale, offrendo la connettività necessaria per il monitoraggio dei veicoli in tempo reale, l’ottimizzazione dei percorsi e la manutenzione predittiva, portando a operazioni più efficienti e costi ridotti.
Nel settore finanziario
Allo stesso modo, nel settore finanziario, NaaS potrebbe supportare l’intelligenza artificiale per il rilevamento delle frodi e la gestione dei rischi consentendo l’analisi ad alta velocità dei dati sulle transazioni, aiutando a identificare e mitigare rapidamente le attività fraudolente.
Alla luce di quanto detto finora appare sempre più evidente che NaaS non sarà solo un abilitatore, ma una infrastrutture fondamentale che consentirà alle tecnologie di intelligenza artificiale di esprimere il loro pieno potenziale in diversi settori, guidando l’efficienza, riducendo i costi e promuovendo l’innovazione.
L’avvento dell’Hyperscale
Una ulteriore “tecnologia” che svolgerà un ruolo di fondamentale importanza nel variegato mondo del Cloud a supporto dell’Intelligenza artificiale è quella che è generalmente chiamata come “Hyperscale” e si riferisce alla capacità di una vasta rete di computer (decine di migliaia e più) di rispondere automaticamente alle mutevoli richieste degli utenti e di assegnare “on demand” carichi di lavoro alle risorse di elaborazione, archiviazione e rete.
L’iper-scalabilità, in pratica, sta portando alla creazione di flotte organizzate e super-connesse di Centri di Elaborazione Dati in grado di mostrarsi verso l’esterno come un unico, enorme complesso informatico in grado di trasformarsi in tempo reale come una figura mitologica o uno dei mostri tanto cari agli amanti del genere fantasy.
Una volta che abbiamo definito i principi basilari dell’hyperscale (come viene anche tradotta in italiano), possiamo analizzare le sue tre caratteristiche fondamentali, ossia:
- La struttura fisica;
- Il modo in cui viene elaborato il traffico in entrata;
- Il modo in cui il software viene utilizzato per automatizzare diverse funzioni.