Siamo sicuri di poter parlare di “chip war”? I microprocessori sono il terreno di scontro delle grandi potenze, Stati Uniti e Cina soprattutto, per l’accaparramento delle innovazioni tecnologiche, a loro volta alla base di tutti i processi produttivi. Dal management alla transizione ecologica, passando per l’industria manifatturiera.
Tutta l’economia è coinvolta in un processo rivoluzionario che ha al centro dei device grandi quanto l’unghia di un mignolo. Lo stesso bisogna da dire della nostra quotidianità. Tuttavia, sarebbe un errore limitarsi all’equazione neutralità tecnologica = corsa agli armamenti.
Chip: un nuovo terreno di rivalità geopolitica
Da un punto di vista finanziario e di spesa pubblica, le dimensioni tendono a confermare che, in effetti, si ha a che fare con una concorrenza all’insegna del “chi offre di più”.
Il Chips and Science Act di Biden è arrivato a 280 miliardi di dollari. Contro i 344 miliardi della Cina. Washington e Pechino hanno aperto linee di credito senza precedenti per lo sviluppo della filiera. Altri governi, pur potendosi permettere di meno, hanno seguito la stessa strada. Il Giappone, per esempio, sta spendendo 13 miliardi di dollari, l’Europa 47 miliardi e anche l’India ha annunciato uno sforzo da 15 miliardi di dollari per costruire impianti di chip sul proprio territorio.
Senza entrare nel dettaglio di altre nazioni, è evidente che quello dei chip è il nuovo terreno di rivalità geopolitiche, strettamente collegate agli interessi delle forze produttive e degli investimenti privati. Le modalità di recupero e allocazione delle risorse sono molteplici. C’è chi si affida unicamente al mercato (Washington), chi invece impone il proprio pensiero economico (Pechino) e, infine, chi è alla ricerca di una propria dimensione, affidandosi a incubatori e start up, senza rendersi conto che il mondo è fatto di squali e barracuda, con cui i pesci piccoli possono fare ben poco. Stiamo parlando dell’Europa. Nel caso non si fosse capito.
L’importanza del tempo, della finalità e dell’interconnessione
Ci sono però tre elementi che non si accordano con la tesi della guerra dei chip: il tempo, la finalità, ma soprattutto l’interconnessione.
A dispetto della convinzione comune per cui tecnologia avanzata e Ai starebbero correndo a velocità mai viste prima d’ora, bisogna riflettere sulle tante prove empiriche, spesso fallite, che hanno portato allo stato in cui siamo.
Le aziende che forniscono la maggior parte di quella potenza di calcolo sono Amazon, Microsoft e Google. Da anni questi giganti tecnologici sognano di aumentare i propri margini di profitto producendo chip in casa, per i propri data center, anziché acquistarne da aziende come Nvidia. Questo colosso Usa della produzione detiene quasi il monopolio sui chip più avanzati. Nvidia è il nemico comune, che però non è soltanto rivale delle big tech, ma anche loro fornitore. Affinché il cordone ombelicale si rompa, bisogna che i campioni globali dei software si rendano indipendenti da chi, invece, è leader dell’hardware.
Le difficoltà di politica industriale nello sviluppo dei chip
D’atra parte, per farlo, devono ricorrere proprio a quel rapporto morboso da cui si vogliono liberare. Servono risorse, le big tech ne hanno, da investire in progettazioni di nuovi chip, che a loro volta hanno bisogno dei chip attuali per essere implementati. È un paradosso. Se poi di traverso ci si mettono difficoltà di politica industriale, la vicenda si fa ancora più complessa.
Si prenda il caso della TSMC, il più grande produttore indipendente di semiconduttori al mondo, il cui progetto di realizzare impianti in Arizona è stato ostacolato da scadenze mancate e controversie sindacali. Una storia simile è stata vissuta da Intel. Gli inventori delle armi più potenti al mondo, in pratica, vengono fermati da anacronistici protagonisti di lotte sociali, che combattono con armi e frecce.
L’impatto ambientale dell’aumento delle richieste di Ai
C’è poi il discorso della finalità dei chip attualmente in elaborazione. Oggi, la maggior parte delle nostre interazioni con modelli di Ai viaggia in cloud. Quando si chiede a ChatGpt un “aiuto da casa”, l’input resta tutt’altro che in zona. Anzi, viene inviato ai remoti server di OpenAI, inducendo il modello lì ospitato a processarlo e trarne le conclusioni (inferenze), per poi tornare a noi in veste di risposta. Questo viaggio in rete, per quanto invisibile in fatto di tempo e spazio, risulterà a lungo andare sempre meno sostenibile. La crescita di informazioni trasmesse ingolferà le linee di comunicazione e i server. Ci si accorgerà dell’impatto ambientale a esso riconducibile.
I server generano calore e per mantenerli a una temperatura costante richiedono sistemi di raffreddamento. Ma soprattutto le nostre richieste e i nostri dati saranno sempre più esposti alla manipolazione.
L’importanza dello sviluppo dell’edge computing
Ecco perché c’è molto interesse nello sviluppo dell’edge computing per l’Ai, in cui il processo di input informativo (ping) avviene direttamente sul proprio dispositivo, come un laptop o uno smartphone.
I nuovi chip dovranno essere altrettanto veloci ed efficienti rispetto a quello attuali. Dovranno poi essere più economici e più piccoli. A portata del singolo utente. Se i chip edge diventano abbastanza piccoli ed economici, è probabile che vedremo ancora più dispositivi smart alimentati dall’Ai nelle nostre case e nei nostri luoghi di lavoro. Il passaggio sarà simile a quello avvenuto dal cervellone elettronico, che occupava vere e proprie stanze negli uffici tra gli anni Settanta e Settanta, e i più pratici personal computer del decennio successivo.
La necessità di collaborazione internazionale nello sviluppo dei chip
Ora, tutto questo non è plausibile che possa essere realizzato da una singola nazione. Un po’ per ragioni di disponibilità delle materie prime necessarie. Come pure per il know-how richiesto. Ma è sull’output che viene meno la tesi della neutralità tecnologica, da intendersi come autarchia, e quindi anticamera di un conflitto. Quale interesse può avere uno sviluppatore a raggiungere un risultato di successo, con alle spalle un volume di investimenti pari a quello che abbiamo visto e poi doverlo piazzare soltanto sul proprio mercato interno? Ecco che allora si tratterà di una concorrenza – accanita e sleale quanto si vuole – che richiederà ai governi nazionali uno sforzo ben più difficile di quello finora condotto.
Al momento gli Stati nazionali hanno messo mano al portafoglio. In futuro bisognerà legiferare. L’Ai Act europeo è stato solo un anticipatore dei tempi. È il risultato di un accordo interno all’Unione tra interessi differenti e in parte contrastanti di governi comunque alleati e partner.
Presto, sarà la comunità internazionale a definire una linea globale di come i microprocessori e i dati trasportati potranno essere gestiti. Quello non potrà essere un terreno di scontro. Ma di compromesso. Tra governi, distinzioni etiche e culturali, quanto anche interessi aziendali. Altro che guerra!