SCENARI

Dal bit al qubit e l’HPC: ecco il futuro del computing



Indirizzo copiato

L’evoluzione del computing, dal tradizionale HPC al rivoluzionario quantum computing, sta trasformando il panorama tecnologico. Seppur complementari, queste tecnologie promettono di ridefinire i limiti del calcolo scientifico e industriale, aprendo nuove frontiere di conoscenza

Pubblicato il 19 mar 2025

Stefano Pileri

Chief digital transformation and innovation officer Maticmind



dal bit al qubit (1)

Il computing è l’insieme delle tecnologie e delle metodologie che permettono l’elaborazione, l’archiviazione e la presentazione delle informazioni attraverso dispositivi elettronici. Il suo sviluppo ha rivoluzionato e continua a trasformare ogni ambito della società, diventando un pilastro fondamentale per il progresso economico, scientifico e tecnologico.

Nei settori della scienza e della ricerca, è alla base di simulazioni avanzate, come la modellizzazione del clima, la scoperta di nuovi farmaci, lo studio delle interazioni molecolari fino alla scoperta delle nuove particelle, come nel caso del Bosone di Higgs. Nell’industria, le tecnologie informatiche ottimizzano la produzione, gestiscono catene di approvvigionamento globali e alimentano sistemi di automazione avanzata. L’intelligenza artificiale (AI), alimentata e abilitata da enormi capacità di calcolo, consente l’analisi di big data, il riconoscimento di pattern complessi e l’automazione di decisioni strategiche. Infine, nel campo delle simulazioni, il computing è essenziale per testare scenari complessi senza la necessità di esperimenti fisici, riducendo tempi e costi in settori come l’aerospaziale e la finanza.

Qui esploreremo lo stato attuale delle tecnologie di computing, analizzando le architetture tradizionali, il ruolo dei sistemi High-Performance Computing (HPC) e le prospettive future offerte dal Quantum Computing. Si discuteranno i progressi più recenti, le sfide tecniche e il potenziale di queste tecnologie nel ridefinire i limiti dell’elaborazione dei dati.

Architetture computazionali a confronto: HPC e quantum computing

L’High-Performance Computing (HPC) rappresenta il massimo livello di potenza computazionale raggiunto dai sistemi tradizionali, attraverso cluster di processori in grado di eseguire miliardi di operazioni al secondo. I supercomputer, come Fugaku, Frontier, Leonardo, e molti altri, sono strumenti fondamentali per simulazioni complesse, elaborazioni scientifiche e applicazioni nell’intelligenza artificiale.

Il Quantum Computing introduce un paradigma completamente nuovo, sfruttando le proprietà della meccanica quantistica per risolvere problemi che sarebbero irraggiungibili con i computer classici. Grazie ai qubit, che possono esistere in più stati contemporaneamente, il quantum computing promette una potenza esponenziale per applicazioni come la crittografia, l’ottimizzazione, la simulazione di fenomeni fisici complessi e ancora una volta la preparazione dei Large Language Model e l’analisi algoritmica alla base dell’AI (Artificial Intelligence).

Evoluzione delle tecnologie di calcolo: CPU, GPU e sistemi emergenti

Il computing oggi si basa su un’ampia gamma di tecnologie e architetture che consentono di eseguire elaborazioni a diversi livelli di complessità. Dalle tradizionali CPU ai supercomputer più avanzati, le soluzioni attuali si sono evolute per affrontare le crescenti esigenze di potenza di calcolo e di efficienza energetica.

Le CPU, Central Processing Unit, sono oggi i processori più versatili e diffusi, ottimizzati per gestire un’ampia gamma di operazioni in modo sequenziale. Utilizzati in computer, server e dispositivi mobili, offrono un buon equilibrio tra prestazioni e flessibilità infatti una CPU è, in genere ottimizzata per eseguire poche operazioni complesse in sequenza, presenta pochi core (tipicamente da 4 a 64 nei processori consumer e server) ed è eccellente per operazioni logiche, gestione di sistemi operativi e calcolo general-purpose.

Le GPU, Graphics Processing Unit, sono inizialmente state progettate per l’elaborazione grafica, sono oggi fondamentali per il calcolo parallelo, in particolare nelle applicazioni di intelligenza artificiale e simulazioni scientifiche. Aziende come NVIDIA e AMD hanno sviluppato GPU altamente specializzate per il calcolo ad alte prestazioni. In genere una GPU è progettata per elaborare migliaia di operazioni in parallelo, contiene migliaia di core, specializzati nel calcolo parallelo, perfetta per operazioni matriciali e vettoriali, fondamentali nell’addestramento delle reti neurali e riduce drasticamente il tempo di addestramento dei modelli AI rispetto alle CPU. Non a caso il successo di NVIDIA (figura 2) nel settore dell’intelligenza artificiale è strettamente legato all’uso delle GPU per l’addestramento dei modelli di deep learning, un ambito in cui le CPU tradizionali risultano inefficaci (si veda il grafico di figura 2 relativo all’evoluzione del prezzo delle sue azioni).

Figura 2: Evoluzione del Prezzo delle azioni NVIDIA negli ultimi 4 anni

Le GPU, grazie alla loro architettura altamente parallela, sono in grado di eseguire milioni di operazioni matriciali simultaneamente, accelerando enormemente i calcoli necessari per l’addestramento delle reti neurali. Questo vantaggio è stato reso possibile dall’introduzione di CUDA (Compute Unified Device Architecture), la piattaforma software di NVIDIA che ha permesso di sfruttare le GPU non solo per la grafica, ma anche per il calcolo scientifico e l’intelligenza artificiale. Con il boom dell’AI, le GPU NVIDIA sono diventate lo standard nei data center degli Hyperscaler, grazie a modelli avanzati come A100 e H100, progettati per il deep learning su larga scala. Il futuro dell’elaborazione AI dipenderà sempre più da acceleratori specializzati e NVIDIA, con la sua strategia di espansione nei data center e nei supercomputer AI, è posizionata per rimanere al centro di questa rivoluzione tecnologica.

Hardware specializzato e edge computing: il futuro dell’elaborazione dati

I FPGA, Field-Programmable Gate Array, sono circuiti programmabili in grado di adattarsi a specifiche esigenze computazionali, utilizzati in applicazioni in cui è richiesta bassa latenza e alta efficienza, come telecomunicazioni, elaborazione di segnali e finanza. Gli ASIC (Application-Specific Integrated Circuit) sono processori personalizzati per eseguire compiti specifici in modo estremamente efficiente. Sono usati, ad esempio, nei chip per il mining di criptovalute e nei processori AI come le Tensor Processing Unit (TPU).

Nel panorama delle tecnologie evolutive di computing sta crescendo l’interesse per l’Edge Computing come soluzione scalabile e sostenibile che sposta il calcolo vicino alla fonte dei dati, riducendo la latenza e il consumo di banda. È cruciale, ad esempio, per applicazioni come IoT, veicoli autonomi e realtà aumentata. L’innovazione tecnologica ha ridotto drasticamente i costi di sviluppo e implementazione di sistemi edge per la raccolta e l’analisi dei dati provenienti da risorse IT e non IT, inoltre i software container e le pratiche di sviluppo cloud-native offrono vantaggi in termini di agilità, particolarmente preziosi con le applicazioni rivolte ai clienti per il business digitale in posizioni periferiche, come la vendita al dettaglio, la produzione, i servizi pubblici, i trasporti e la logistica.

La stragrande maggioranza dei clienti si avvicina alle soluzioni edge da una prospettiva edge-in, piuttosto che cloud-out. Molte attività commerciali si stanno orientando verso l’automazione dei negozi e stanno rivalutando il mix uomo-macchina nei loro negozi e ciò favorisce l’adozione precoce di architetture edge nel punto vendita. Le architetture Edge Computing stanno diventando cruciali in tutte le reti infrastrutturali strategiche come le Telecomunicazioni, le Smart Grids, e Start Road le reti ferroviarie ad alta velocità e, non ultime, le costellazioni satellitari LEO con l’adozione di capacità di computing a bordo dei satelliti.

L’infrastruttura globale dei data center

Le attuali tecnologie di computing sino a qui analizzate permeano l’intera popolazione dei Data Center nel mondo, i quali, secondo un recente studio di Gartner, sono nell’intorno dei 3,4 milioni di unità con circa 80 milioni di server attivi (figura 3).

High-Performance Computing: potenza e applicazioni dei supercomputer

L’High-Performance Computing (HPC) è il ramo del computing che si occupa di eseguire calcoli estremamente complessi a velocità molto elevate. Questo è possibile grazie ai Cluster di Calcolo che sono insiemi di server interconnessi che lavorano come un’unica entità e grazie ai Supercomputer ossia a macchine estremamente potenti composte da migliaia di CPU e GPU. Alcuni dei supercomputer più potenti al mondo includono:

L’HPC è fondamentale in diversi settori, tra cui le simulazioni climatiche per la produzione di previsioni meteorologiche accurate e modelli per il monitoraggio del cambiamento climatico, la Genomica con le analisi di DNA e sviluppo di farmaci personalizzati, la Ricerca Spaziale basata su simulazioni di astrofisica e dinamiche di corpi celesti e l’Intelligenza Artificiale e in particolare l’addestramento di modelli di deep learning per il riconoscimento di immagini e il linguaggio naturale.

Sfide Attuali dell’HPC sono in primo luogo il consumo energetico in quanto i supercomputer richiedono enormi quantità di energia, spingendo la ricerca verso architetture più efficienti, la scalabilità in quanto man mano che la potenza cresce diventa sempre più complesso gestire e ottimizzare tali sistemi e i costi in quanto l’implementazione e la manutenzione di infrastrutture HPC sono estremamente onerosi, limitandone l’accesso, al momento, a poche istituzioni.

Innovazioni nell’High-Performance Computing

L’High-Performance Computing, peraltro, continua a evolversi grazie all’integrazione di nuove tecnologie che aumentano la potenza computazionale e migliorano l’efficienza.

Il Neuromorphic Computing

Tra le innovazioni più promettenti troviamo il Neuromorphic Computing che si ispira alla struttura e al funzionamento del cervello umano, utilizzando circuiti specializzati per simulare il comportamento delle reti neurali biologiche con potenziali vantaggi di basso consumo energetico, eccellenza nell’elaborazione parallela, ideale per l’AI e il pattern recognition. Inoltre è di rilievo lo sviluppo di Acceleratori AI e della Computazione Eterogenea.

L’intelligenza artificiale

L’intelligenza artificiale è un motore chiave dell’innovazione nel computing. Per supportare la crescente domanda di calcolo AI, vengono sviluppati acceleratori specializzati come le Tensor Processing Units (TPU), i Graphcore IPU (Intelligence Processing Unit): specializzati nel calcolo AI parallelo, il Cerebras Wafer-Scale Engine ossia il chip più grande mai costruito, ottimizzato per il machine learning. Questi acceleratori vengono sempre più integrati nei supercomputer, permettendo di potenziare il deep learning, l’analisi di big data e le simulazioni scientifiche.

Quantum computing: princìpi fondamentali e potenzialità

Il computing tradizionale, basato su architetture classiche, sta raggiungendo i suoi limiti in termini di potenza e scalabilità. Per affrontare problemi sempre più complessi, il Quantum Computing si propone come un paradigma rivoluzionario, capace di eseguire calcoli in modo esponenzialmente più rapido rispetto ai sistemi convenzionali in determinati ambiti. Come noto, il computing classico utilizza bit, unità di informazione che possono assumere solo due stati: 0 o 1. Nel Quantum Computing, invece, si utilizzano i qubit (quantum bit), che sfruttano le leggi della meccanica quantistica per rappresentare informazioni in modi completamente nuovi.

Le principali differenze tra bit e qubit

Le principali differenze tra bit e qubit sono:

  • la Sovrapposizione, in quanto un qubit può esistere contemporaneamente in entrambi gli stati 0 e 1,
  • l’Entanglement ossia il fatto che due o più qubit possono essere correlati in modo tale che lo stato di uno influenzi istantaneamente lo stato dell’altro, indipendentemente dalla distanza e
  • l’Interferenza quantistica secondo la quale i qubit possono essere manipolati attraverso operazioni che sfruttano interferenze costruttive e distruttive, migliorando l’efficienza dei calcoli.

Se osserviamo il ben noto metodo di ricerca di mercato di Gartner, l’Hype Cicle (figura 4) si nota come oggi il Quantum Computing sia al picco delle aspettative.

Immagine che contiene testo, diagramma, Diagramma, lineaIl contenuto generato dall'IA potrebbe non essere corretto.

Figura 4: Hype Cycle for Quantum Computing (Fonte Gartner 2024)

Meccanica quantistica applicata al computing

Abbiamo accennato che i principi base del Quantum Computing sono la Sovrapposizione, l’Entanglement e l’Interferenza Quantistica.

La Sovrapposizione differenzia il Quantum Computing dal computing classico in quanto i qubit possono esistere in una sovrapposizione di entrambi gli stati contemporaneamente. Immaginiamo una moneta.

Se la mettiamo su un tavolo, può mostrare testa (0) o croce (1). In un computer classico, ogni bit è come una moneta ferma su uno dei due lati. Ora immaginiamo di lanciare la moneta e lasciarla ruotare in aria: fino a quando non si ferma, non possiamo dire con certezza se sia testa o croce. In questo stato intermedio, la moneta è in sovrapposizione tra i due valori. Matematicamente, un qubit può essere scritto come una combinazione lineare dei due stati: ∣ψ⟩ = α∣0⟩+β∣1⟩ dove α e β sono coefficienti complessi che rappresentano le probabilità associate a ciascuno stato.

Quando si misura il qubit, collassa in 0 o 1 con una probabilità determinata dai valori di α e β. Grazie alla sovrapposizione, un computer quantistico può eseguire calcoli su tutti gli stati possibili di un qubit contemporaneamente, aumentando drasticamente la capacità di elaborazione rispetto a un computer classico.L’Entanglement è il fenomeno in base al quale una modifica allo stato di uno influenza immediatamente l’altro, indipendentemente dalla distanza e che è la chiave per accelerare i calcoli rispetto ai computer tradizionali. L’Interferenza Quantistica dimostra che gli stati quantistici possono interferire tra loro, consentendo di amplificare soluzioni corrette e cancellare quelle errate in alcuni algoritmi.

Gli algoritmi chiave del calcolo quantistico sono:

Attualmente, diverse aziende e istituzioni stanno sviluppando hardware quantistico basato su diverse tecnologie come:

  • il Superconducting Qubit che utilizza circuiti superconduttori per creare e manipolare qubit e che è oggi la tecnologia più avanzata oggi;
  • le Ion Trap (trappole di ioni) che sfruttano atomi carichi controllati da campi elettromagnetici promettente per la sua stabilità e ridotta decoerenza;
  • I Qubit Fotonici che utilizzano fotoni come unità di informazione quantistica con il vantaggio di operare a temperatura ambiente.

Ostacoli sulla strada del Quantum Computing

Nonostante i progressi, il Quantum Computing deve affrontare ancora numerosi ostacoli prima di diventare una tecnologia di uso comune, i principali sono la Decoerenza che caratterizza i qubit come entità estremamente fragili che perdono il loro stato quantistico a causa delle interferenze ambientali; gli Errori Quantistici la cui correzione è una sfida complessa poiché l’osservazione dei qubit può alterarne lo stato e infine la Scalabilità in quanto, attualmente, i computer quantistici hanno poche decine o centinaia di qubit, quando per fare la differenza rispetto alle tecnologie HPC odierne, serviranno migliaia o milioni di qubit affidabili.

Sebbene il Quantum Computing sia ancora nelle sue fasi iniziali, ha già mostrato un enorme potenziale nella crittografia in quanto la fattorizzazione veloce dei numeri da parte dell’algoritmo di Shor potrebbe rendere obsolete molte tecniche di crittografia attuali, spingendo lo sviluppo di nuove soluzioni post-quantistiche, negli algoritmi quantistici per i problemi di ottimizzazione in logistica, trasporti e finanza in modo più efficiente rispetto ai metodi classici e nelle simulazioni del comportamento delle molecole con precisione senza precedenti, con applicazioni nello sviluppo di nuovi farmaci e materiali.

Integrazione tra HPC e quantum computing

Oggi l’HPC e il Quantum Computing non sono tecnologie in competizione, ma complementari. L’HPC eccelle nell’elaborazione di grandi quantità di dati e simulazioni numeriche, mentre il Quantum Computing è più adatto per problemi specifici che sfruttano i vantaggi della meccanica quantistica. Il Quantum Advantage come già accennato, si verifica nella fattorizzazione di numeri primi (crittografia), nella simulazione di materiali e delle reazioni chimiche, nella risoluzione di problemi di ottimizzazione complessi. Tuttavia, al momento non esistono ancora computer quantistici general-purpose in grado di superare gli HPC in tutti i compiti.

Il Quantum Computing è ancora in una fase sperimentale, ma le grandi aziende tecnologiche e le startup stanno investendo miliardi di dollari per renderlo una realtà praticabile, alcuni esempi rilevanti, ma non esaustivi, sono quello di IBM che ha sviluppato una roadmap chiara per il Quantum Computing, con l’obiettivo di costruire un sistema quantistico scalabile entro il 2030 e che nel 2023 ha presentato il processore Condor (1121 qubit) e prevede di migliorare la correzione degli errori nei prossimi anni; quello di Google che dopo aver lanciato il programma Quantum Supremacy nel 2019 con Sycamore, ora punta a realizzare un computer quantistico tollerante agli errori entro il 2029. Inoltre vi sono numerose startup Emergenti come IonQ, oggi leader nella tecnologia a trappole di ioni, con piani per sviluppare quantum computer modulari; Xanadu che sta esplorando i qubit fotonici, con il vantaggio di operare a temperatura ambiente; Rigetti Computing che è focalizzata su superconducting qubit e soluzioni ibride quantistico-classiche.

L’obiettivo comune è ridurre gli errori quantistici, aumentare la coerenza dei qubit e sviluppare algoritmi pratici per il mondo reale. Inoltre, gli algoritmi quantistici, in particolare l’algoritmo di Shor, potrebbero rendere obsolete le attuali tecniche di crittografia basate su RSA ed ECC. Per questo, si stanno sviluppando nuove tecnologie di quantum-safe cryptography, come gli algoritmi resistenti al quantum computing, come quelli studiati dal NIST Post-Quantum Cryptography Standardization e gli algoritmi di Distribuzione Quantistica delle Chiavi (QKD): sfrutta le leggi della fisica quantistica per garantire comunicazioni sicure.

Una panoramica completa del mercato Quantum Computing è ben sintetizzata nella figura 5 di fonte Gartner 2024.

Immagine che contiene schermata, testo, softwareIl contenuto generato dall'IA potrebbe non essere corretto.

Figura 5: Il mercato articolato del Quantum Computing (Fonte Gartner 2024)

Le metriche di potenza di calcolo e consumo energetico

La potenza di calcolo di un sistema viene misurata attraverso diverse metriche, a seconda del contesto e dell’architettura utilizzata. Le principali metriche includono:

  • FLOPS (Floating Point Operations Per Second) che è l’unità di misura standard per valutare la capacità computazionale di un processore o di un supercomputer. I valori più comuni sono: GigaFLOPS (GFLOPS): 10⁹ operazioni in virgola mobile al secondo; TeraFLOPS (TFLOPS): 10¹² operazioni al secondo; PetaFLOPS (PFLOPS): 10¹⁵ operazioni al secondo; ExaFLOPS (EFLOPS): 10¹⁸ operazioni al secondo (Frontier, primo supercomputer exascale).
  • IPS (Instructions Per Second) misura il numero di istruzioni eseguite da una CPU in un secondo e varia a seconda dell’architettura del processore (CISC vs. RISC).
  • TOPS (Tera Operations Per Second) utilizzato soprattutto nei processori per AI e nei TPU (Tensor Processing Units). Indica il numero di operazioni di moltiplicazione e accumulo eseguite al secondo.
  • HPL Benchmark (High-Performance Linpack) utilizzato per classificare i supercomputer nella lista TOP500, misurando la velocità di risoluzione di sistemi di equazioni lineari.
  • Quantum Volume, utilizzato per misurare la capacità effettiva di un computer quantistico, prendendo in considerazione il numero di qubit, la fedeltà delle operazioni e la coerenza quantistica.

I sistemi di computing possono essere classificati in base alla loro capacità computazionale, che varia da dispositivi personali a supercomputer avanzati.

  • Computing Personale e Mobile come Laptop, PC, Smartphone e Tablet che generalmente operano con una potenza di calcolo nell’ordine dei GigaFLOPS (GFLOPS) fono a quelli equipaggiati con CPU/GPU ottimizzate per il risparmio energetico, con prestazioni intorno ai 100 GFLOPS.
  • Edge Computing e IoT ossia i dispositivi che elaborano dati localmente per ridurre la latenza e il traffico di rete. Potenza variabile da decine a centinaia di GFLOPS.
  • High-Performance Computing (HPC) di Medio Livello che Includono workstation professionali e piccoli cluster di server. Prestazioni nell’ordine dei TeraFLOPS (TFLOPS), ideali per simulazioni, rendering 3D, AI e analisi dati avanzata.
  • Supercomputer e HPC Avanzato. Sistemi con capacità superiori al PetaFLOPS (PFLOPS), utilizzati per ricerca scientifica, intelligenza artificiale e simulazioni complesse. Esempi: Fugaku (442 PFLOPS), Leonardo (250 PFLOPS), Frontier (1.2 EFLOPS).
  • Quantum Computing. Non direttamente confrontabile con i computer classici in termini di FLOPS, ma valutato in Quantum Volume e nel potenziale di accelerare specifici algoritmi (es. fattorizzazione, ottimizzazione). Sistemi attuali ancora in fase sperimentale, con decine o centinaia di qubit.

Questa segmentazione mostra come le diverse architetture di computing siano specializzate per risolvere problemi con livelli di complessità differenti. La continua evoluzione delle tecnologie sta riducendo il divario tra questi segmenti, con l’HPC che diventa più accessibile e il Quantum Computing che avanza verso l’uso pratico.

L’aumento della potenza di calcolo ha sempre comportato un incremento del consumo energetico, poiché eseguire operazioni più complesse e su scala maggiore richiede hardware più potente e quindi più energia. Tuttavia, la correlazione tra queste due variabili non è lineare, ma dipende da numerosi fattori, tra cui l’efficienza dell’architettura hardware (CPU, GPU, FPGA, ASIC, TPU), le tecnologie di raffreddamento e dissipazione del calore e l’ottimizzazione software e gestione dell’energia

Storicamente, la Legge di Moore ha previsto il raddoppio del numero di transistor nei chip ogni due anni, portando a un aumento della potenza computazionale senza un incremento proporzionale del consumo energetico. Tuttavia, con l’avvicinarsi ai limiti fisici dei semiconduttori, il guadagno in efficienza energetica sta rallentando, rendendo necessario un cambio di paradigma. I supercomputer sono tra i sistemi di calcolo più energivori al mondo. Alcuni esempi già citati in precedenza sono Fugaku (Giappone) con 442 PetaFLOPS e un consumo di 30 MW (~30.000 case) con un consumo unitario di 15 GFLOPS / WATT e il Frontier (USA) che è il primo supercomputer Exascale (1,2 ExaFLOPS) e un consumo di 21 MW e quindi un consumo unitario di oltre 57 GFLOPS / WATT.

Più in dettaglio si osserva che un data center tradizionale ha un’efficienza di circa 10 GFLOPS/Watt, un data center AI ottimizzato può superare i 100 GFLOPS/Watt con GPU specializzate mentre abbiamo appena visto che i supercomputer exascale, come Frontier, mostrando un’efficienza di circa 57 GFLOPS/Watt.

I data center globali consumano circa 1-2% dell’energia mondiale e la loro domanda è in crescita a causa dell’espansione del cloud computing e dell’intelligenza artificiale. Un data center hyperscale consuma tra 50 e 100 MW, equivalente a una piccola città.

Ecosistema della ricerca: collaborazione tra accademia, industria e istituzioni

La ricerca e lo sviluppo nel campo dell’HPC e del Quantum Computing sono guidati da un ecosistema complesso in cui università, aziende private e istituzioni governative giocano ruoli chiave. Le università e i centri di ricerca sono fondamentali per lo sviluppo teorico e sperimentale delle nuove tecnologie. MIT, Stanford, ETH Zurigo e Università di Tokyo sono esempi tra i principali istituti che contribuiscono ai progressi nel computing quantistico e nell’HPC. Il Cineca è, nel nostro Paese, uno dei più importanti riferimenti nazionali ed europei.

Programmi come il Quantum Internet Alliance (UE) e il Quantum AI Lab (NASA) puntano a integrare quantum computing e AI per applicazioni pratiche. Le grandi aziende tecnologiche stanno investendo miliardi di dollari per portare queste innovazioni sul mercato con gli esempi rilevanti di IBM, Google, Microsoft, NVIDIA protagonisti nello sviluppo di hardware e software avanzati. Startup come IonQ, PsiQuantum, Rigetti e D-Wave e molte altre stanno esplorando nuovi approcci per il quantum computing. Aziende di cloud computing, come Google, AWS e Microsoft, stanno già offrendo accesso a risorse quantistiche via cloud.

I governi giocano un ruolo essenziale nel finanziamento della ricerca e nella regolamentazione delle nuove tecnologie. Gli Stati Uniti hanno lanciato il National Quantum Initiative, investendo miliardi di dollari nella ricerca quantistica. L’Unione Europea ha creato il Quantum Flagship, un programma da 1 miliardo di euro per lo sviluppo di tecnologie quantistiche. La Cina sta investendo massicciamente nel quantum computing, con l’obiettivo di diventare leader mondiale nel settore. Questa cooperazione tra accademia, industria e governi è essenziale per superare le sfide tecnologiche, rendere il computing più accessibile e garantire uno sviluppo etico delle nuove tecnologie.

Come altre in tematiche tecnologiche di punta, come l’Intelligenza Artificiale, è tempo di realizzare con decisione un programma strutturato e focalizzato in europa senza del quale non si ha alcuna possibilità di competere con gli altri continenti come USA e Cina, in forte accelerazione.

Verso una nuova era in cui la potenza di calcolo non sarà più un limite

L’evoluzione del computing sta ridefinendo i confini della tecnologia e della conoscenza, spingendoci verso una nuova era in cui la potenza di calcolo non sarà più un limite, ma un’opportunità senza precedenti. Dall’High-Performance Computing (HPC), che continua a spingere le capacità dei supercomputer per affrontare sfide scientifiche e industriali, al Quantum Computing, che promette di rivoluzionare il modo in cui elaboriamo le informazioni, il futuro è caratterizzato da un’accelerazione senza precedenti.

L’HPC rimane il pilastro del calcolo avanzato, con applicazioni in settori critici come la simulazione climatica, la ricerca farmaceutica e l’intelligenza artificiale. Le innovazioni in atto, tra cui il neuromorphic computing e gli acceleratori AI, stanno aprendo nuove possibilità per rendere il calcolo più efficiente, scalabile e sostenibile.

Parallelamente, il Quantum Computing rappresenta un cambio di paradigma radicale. Sebbene ancora nelle sue fasi iniziali, ha già dimostrato il suo potenziale in crittografia, ottimizzazione e simulazione di fenomeni fisici complessi. Le roadmap delle Big Tech come IBM, Google, Amazon, Microsoft, NVIDIA e le startup emergenti indicano un futuro in cui i computer quantistici potrebbero diventare strumenti essenziali per la scienza e l’industria. Tuttavia, molte sfide devono ancora essere superate: decoerenza, errori quantistici e scalabilità sono ostacoli che richiederanno anni di ricerca per essere risolti.

Le implicazioni etiche e di sicurezza delle innovazioni del computing

Ma il progresso tecnologico non è mai solo una questione di potenza di calcolo. Le implicazioni etiche e di sicurezza di queste innovazioni richiedono un’attenzione costante: la quantum-safe cryptography sarà essenziale per proteggere le infrastrutture digitali globali, mentre l’impatto dell’intelligenza artificiale e del calcolo quantistico sulla privacy e sulla governance dei dati dovrà essere attentamente regolamentato.

Il futuro del computing non sarà definito da una singola tecnologia, ma dall’integrazione di più soluzioni. HPC e Quantum Computing non sono rivali, ma strumenti complementari che, se combinati, potrebbero aprire nuove frontiere della scienza e della tecnologia. La collaborazione tra accademia, industria e governi sarà cruciale per trasformare queste innovazioni in realtà accessibili e sostenibili.

Siamo di fronte a un momento storico: il computing sta evolvendo da una scienza della potenza di calcolo a un’arte della risoluzione dei problemi. Chi saprà comprendere e sfruttare queste trasformazioni avrà il potere di modellare il futuro.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video & Podcast
Social
Iniziative
Scenari
Il quadro economico del Sud: tra segnali di crescita e nuove sfide
Sostenibilità
Lioni Borgo 4.0: un passo verso la città del futuro tra innovazione e sostenibilità
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Scenari
Il quadro economico del Sud: tra segnali di crescita e nuove sfide
Sostenibilità
Lioni Borgo 4.0: un passo verso la città del futuro tra innovazione e sostenibilità
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4