L’idea che quella dei semiconduttori sia un’industria chiave per il funzionamento dell’economia dell’informazione e della conoscenza non è una novità. Dispositivi come i circuiti integrati (o chip) e i miliardi di transistor che li compongono rientrano nelle cosiddette “tecnologie di portata generale” (general purpose technologies) che vengono utilizzate come componente chiave nei settori e attività economiche più disparate.
Per questo motivo, i chip sono caratterizzati da una diffusione di tipo pervasivo e, insieme ad altre tecnologie a loro complementari, hanno aperto la strada al cosiddetto ubiquitous computing – l’implementazione di sistemi computazionali in ogni aspetto e dimensione della società.
Al momento, l’industria dei semiconduttori si trova in una fase turbolenta: una strategia lungimirante per uscire dall’impasse potrebbe essere quella della convergenza su un prodotto flessibile come un platform chip.
Vediamo perché.
Crisi dei chip, così colpisce e trasforma l’industria dell’auto ed elettronica
Come e perché siamo arrivati alla crisi dei chip
Nel corso dei decenni, la filiera produttiva dei semiconduttori ha sperimentato varie trasformazioni (Brown e Linden, 2011) in risposta a pressioni interne ed esterne. Ma è soltanto recentemente che una sfida inedita si è affacciata all’orizzonte. È qui che entra in gioco l’intelligenza artificiale (AI). Fino a pochi anni fa, la traiettoria tecnologica alla base degli sviluppi e delle scelte produttive dell’industria dei semiconduttori è stata quella della micronizzazione dei componenti fondamentali dei chip, in particolare i transistors. Tale traiettoria è approssimata da quella che in moltissimi conoscono come la legge di Moore, ovvero la regolarità empirica secondo la quale il numero di transistor ‘stampati’ su un wafer di silicio raddoppia ogni 18 mesi circa, che si traduce in aumento della velocità computazionale dei dispositivi. Come ogni traiettoria tecnologica, anche questa è servita a ridurre l’incertezza che caratterizza scelte produttive e innovazione, e dunque a mantenere il settore su un sentiero stabile e abbastanza prevedibile per decenni.
La legge di Moore non è quindi una vera e propria “legge naturale” dell’industria, ma un focusing device (Rosenberg, 1969) – il risultato delle scelte strategiche dei produttori di chip. Infatti, nel corso dei decenni i chipmaker hanno scelto di mantenere stabile la configurazione del prodotto (quello che nel campo del management viene definito dominant design), concentrandosi sulla cosiddetta “architettura di von Neumann”, implementata in dispositivi hardware come le central processing unit (CPU). Le CPU sono processori che riflettono in termini di hardware un modello computazionale definito “sequenziale”. La computazione sequenziale funziona come una catena di montaggio, in cui la produzione procede necessariamente fase dopo fase; nel nostro caso, le fasi rappresentano le istruzioni di un programma. La caratteristica fondamentale dell’architettura di von Neumann, e dunque anche delle CPU, è la proprietà definita universalità, la capacità di eseguire ogni tipo di calcolo in un singolo dispositivo.
Optando per le CPU come prodotto intorno al quale sviluppare l’industria, i produttori hanno potuto concentrare i loro sforzi innovativi prevalentemente sul progresso di un solo parametro, la riduzione della dimensione dei transistors. Questa scelta ha permesso di convogliare per anni gli investimenti in ricerca e sviluppo in una direzione precisa e di produrre dispositivi di qualità superiore su scala sempre maggiore, sostenuti dalla domanda crescente di computer e, più recentemente, di dispositivi portatili come smartphone e tablet. In poche parole, l’industria ha preferito le economie di scala alla varietà, visto che la sua forza trainante è stata quella che Steinmueller (1992) definisce capacity races – l’incentivo a introdurre nuove generazioni del prodotto utilizzato dalla maggior parte del mercato e a incrementare rapidamente la produzione per una distribuzione di massa. L’industria ha certamente sviluppato anche prodotti di nicchia, chip specializzati per usi dedicati (per esempio nei supercomputer scientifici o militari). Nonostante questo, l’universalità dell’architettura di von Neumann ha reso le CPU un minimo comune denominatore appetibile per la maggioranza di usi e domanda di mercato, e così le pressioni provenienti da nicchie particolari non sono mai riuscite a deragliare la traiettoria principale dell’industria, quella della produzione in massa di CPU.
I limiti fisici della legge di Moore e la vera sfida per l’industria del chip
La legge di Moore ha dei limiti fisici, visto che non è possibile ridurre all’infinito la dimensione dei transistor (il più avanzato technology node, che indica la dimensione dei componenti fondamentali di un chip, è al momento di 5 nanometri). Molti esperti hanno già suonato il campanello d’allarme in vista dal rallentamento della micronizzazione dei componenti dei chip. In realtà, la fine della Moore’s Law non è ancora il problema principale per l’industria: i chipmaker stanno sperimentando già da tempo vari modi per prolungare la traiettoria tecnologica prevalente apportando modifiche al design dei chips – sovrapponendo diversi strati (il cosiddetto die stacking), abbandonando il silicio a favore di altri materiali semiconduttori con migliori proprietà, o sperimentando nuovi modi per inviare segnali, per sostituendo i segnali elettrici con quelli ottici.
La vera sfida per l’industria dei semiconduttori proviene invece dalla necessità di innovare l’architettura dei chip. Il successo degli algoritmi di IA per usi che vanno dal riconoscimento di patterns (immagini, video, suoni), al natural language processing, fino a task predittivi di varia natura (utili in particolare per il settore pubblicitario digitale e delle raccomandazioni per acquisti online and offline) ha creato uno shock di domanda in favore di hardware capace di ottimizzare l’uso di queste tecnologie. A prima vista, questo potrebbe apparire un cambiamento benvenuto; potenzialmente, l’emergere di un nuovo tipo di domanda può portare nuova linfa vitale ad un’industria ormai consolidata. Il problema sta nel fatto che gli algoritmi di IA, e in particolare le reti neurali artificiali (ANN), sono un tipo di software che si basa su di un modello computazionale diverso da quello incorporato nell’architettura di von Neumann e, quindi, nelle CPU. Le ANN sono costruite attorno a un modello di computazione concorrente, e l’hardware (chip) che può implementare al meglio questo tipo di modello deve basarsi su questi principi. Per immaginare la logica di una delle istanze della computazione concorrente basti pensare ad una trasmissione televisiva trasmessa in una palestra davanti a una serie di persone che corrono in parallelo su tapis roulant! Chip costruiti precisamente per eseguire algoritmi come le reti neurali esistono già e si chiamano application specific integrated circuits (ASICs) – un esempio sono le tensor processing units (TPU) prodotte da Google. Come dice il nome, questi prodotti sono application specific, ovvero non universali e dunque non utilizzabili per la grande varietà di compiti che le CPU riescono invece ad affrontare.
I chipmaker si trovano quindi davanti un trade-off, una tensione fondamentale: dato che investire nella produzione di nuovi chip comporta costi rilevanti, come destinare risorse (tra cui ricerca e sviluppo) per sviluppare prodotti che possano soddisfare sia computazioni standard che quelle richieste dagli usi dell’IA? In altre parole, le imprese dell’industria dei semiconduttori devono decidere in che modo e direzione aggiornare il product design dei circuiti integrati visto lo shock che l’IA, tramite la domanda per capacità di calcolo dedicata a tecniche come Deep Learning, sta imponendo sulla traiettoria tecnologica e sulla produzione dei chip.
Semiconduttori, la Ue punta in alto: strategie e nodi da sciogliere
Due scenari alternativi per il futuro dell’industria dei chip
Per rispondere a questa domanda, in una nostra ricerca abbiamo studiato in dettaglio questo problema. I chipmaker possono decidere di produrre un prodotto hardware che incorpori il modello di computazione sequenziale (come le CPU), uno che si fondi sul modello di computazione concorrente (come le TPU), o un ibrido, integrando componenti diverse in quello che viene chiamato un system-on-a-chip, cioè un prodotto composito che comprende moduli computazionali differenti. La scelta rispetto alla configurazione del nuovo prodotto dipende dalla performance che il futuro chip può offrire, e questa a sua volta è determinata dal modo in cui i produttori decidono di bilanciare tre dimensioni fondamentali: (i) la flessibilità (in termini di tipologie di computazione che possono essere eseguite sul dispositivo in questione), (ii) l’efficienza energetica e (iii) la velocità di un chip.
Il peso relativo di queste dimensioni, che varia a seconda delle strategie e management di ogni singolo produttore, si combina con la natura della domanda, che nel nostro modello analitico approssimiamo con la scelta che i consumatori operano tra i software necessari ad eseguire precisi compiti computazionali. Alcuni di questi compiti sono ‘standard’, altri richiedono l’uso di IA e, dunque, di software dedicato. Mettendo insieme tutte queste dinamiche, abbiamo delineato due scenari alternativi per il futuro dell’industria. Il primo scenario prevedere una crescente specializzazione della produzione di semiconduttori, con il settore che diventa frammentato in silos produttivi e di domanda. Il secondo scenario prevedere l’emergere di una nuova configurazione di prodotto dominante e, contemporaneamente, l’assestamento dell’industria su di una nuova traiettoria tecnologica stabile. Il nuovo dominant design potrebbe combinare in un singolo chip complesso, o platform chip, componenti chiave relative a diverse architetutture computazionali.
I platform chip per uscire dall’impasse
Al momento, l’industria dei semiconduttori si trova in una fase turbolenta e non è chiaro se convergerà verso il primo o il secondo scenario. Le rapide evoluzioni dell’IA in quanto campo e collezione di algoritmi e la crescente domanda di applicazioni che si basano sull’IA rappresentano un forte incentivo a sviluppare il prima possibile soluzioni hardware dedicate, come suggerito dal primo scenario. D’altro canto, le tecnologie di IA sono ancora nella loro infanzia, e investire ingenti risorse nello sviluppo di chip che potrebbero rivelarsi inadeguati rispetto a sviluppi futuri al momento imprevedibili suona come una scommessa rischiosa. Per questo motivo, dedicare sforzi innovativi verso un prodotto flessibile come un platform chip potrebbe essere una strategia più lungimirante nel lungo periodo.
Il vantaggio di un platform chip sta nella sua versatilità, grazie all’integrazione in un singolo dispositivo hardware di diversi modelli di computazione.
Questo punto ci riporta all’idea di universalità. Russell (2019) descrive l’universalità come segue: “universality means that we do not need separate machines for arithmetic, machine translation, chess, speech understanding, or animation: one machine does it all.” Lo scenario che prevede l’emergere dei platform chip va in questa direzione; forse perseguire diversità e universalità in un’innovativa architettura dei chip può rappresentare un passo avanti verso l’implementazione su scala dell’IA nei sistemi hardware, e così facendo aprire nuove opportunità per sviluppare ed usare questa tecnologia rivoluzionaria.
Crisi del chip, le strategie Europa e Usa per evitare il collasso
Bibliografia
Brown, C., & Linden, G. (2011). Chips and change: how crisis reshapes the semiconductor industry. MIT Press.
Prytkova, Ekaterina and Vannuccini, Simone, On the Basis of Brain: Neural-Network-Inspired Change in General Purpose Chips (February 1, 2020). SWPS 2020-01, Available at SSRN: https://ssrn.com/abstract=3536389 or http://dx.doi.org/10.2139/ssrn.3536389
Rosenberg, N. (1969). The direction of technological change: inducement mechanisms and focusing devices. Economic development and cultural change, 18(1, Part 1), 1-24.
Russell, S. (2019). Human compatible: Artificial intelligence and the problem of control. Penguin.
Steinmueller, W. E. (1992). The economics of flexible integrated circuit manufacturing technology. Review of Industrial Organization, 7(3), 327-349.