A metà luglio, il mondo è stato colpito da un nuovo bug informatico. Come ha ricordato Wired, “nella storia, le volte in cui un singolo programma è riuscito nell’impresa di mandare in tilt i sistemi informatici di tutto il mondo come ha fatto Falcon di Crowdstrike si contano sulla dita di una mano. Era successo nel 2003 con il worm Slammer, poi con il malware NotPetya, sfruttato dalla Russia per colpire l’Ucraina, e con il ransomware WannaCry, diffuso dalla Corea del Nord.
Cosa ha dimostrato il bug di luglio
Ma la catastrofe digitale che venerdì 19 luglio ha scosso internet e le infrastrutture digitali di tutto il mondo non è stata innescata dal codice dannoso distribuito da cybercriminali, bensì da un software progettato per fermarli”[i]. Un paradosso? No. E tutto nasce con un aggeggio piccolo, sempre più piccolo e insieme sempre più grande quanto a potenza di calcolo: il chip. Perché importante è accrescere sempre di più la potenza di calcolo, per farne cosa è meno noto (se non per la potenza del potere industriale, economico e soprattutto militare). Quello che il bug ha comunque dimostrato è che siamo:
- sempre più connessi/integrati (lo sappiamo ma insieme lo dimentichiamo sempre, ogni volta ricadendo nel problema) e basta una falla da qualche parte perché tutto il mondo vada in tilt;
- che il mondo è in realtà sempre più governato autocraticamente dall’industria e dal complesso militare industriale (chi definisce gli sviluppi del digitale? Non certo il demos in democrazia);
- che queste industrie sono un sistema monopolistico/oligopolistico e a tutti va bene così e nessuno mette in dubbio il monopolio/oligopolio (dimostrandosi che tutti sono liberali a parole, per nulla nei fatti).
Tutti felicemente connessi. Altre volte meno
Crowdstrike ha comunicato poi che “la causa principale del crash era un singolo file di configurazione inviato come aggiornamento a Falcon. L’aggiornamento era specificamente progettato per modificare il modo in cui Falcon ispeziona i cosiddetti named pipes in Windows, una funzione che consente a un software di inviare dati tra diversi processi sulla stessa macchina o con altri computer sulla rete locale. E l’aggiornamento del file di configurazione aveva lo scopo di permettere a Falcon di individuare un nuovo metodo utilizzato dai criminali informatici per far comunicare i loro malware”[ii]. E invece, ecco un classico esempio – un altro – di eterogenesi digitale dei fini, ammesso che la tecnologia abbia fini umani e non di mero accrescimento illimitato e capitalistico di se stessa (e del capitale) – e della volontà di potenza permessa da macchine che calcolano, riducendo tutto a mero calcolo e solo a calcolo per il calcolo e perdendo il pensiero, dimenticando che il pensiero umano, come diceva il filosofo politico Aldo Masullo (1923-2020), “è anche calcolo ma non è solo calcolo”. Noi invece oggi calcoliamo tutto, dopo avere ridotto tutto (uomini compresi) a numeri e a dati che sono mezzi di produzione di beni e soprattutto di profitto attraverso la infrastruttura computazionale – e la datificazione anche dell’uomo è la reificazione marxiana all’ennesima potenza.
Il totalitarismo del numero e l’azzeramento del pensiero
Ed è il totalitarismo del numero e l’azzeramento del pensiero, cioè il totalitarismo della società tecnologica avanzata, come la definiva il francofortese Herbert Marcuse (1898-1979), già negli anni Sessanta del Novecento – ma oggi totalitaria molto di più, perché se l’integrazione e la connessione – e l’impiegabilità (Heidegger) e il dover fare tutto ciò che tecnicamente si può fare (Anders) – sono nell’essenza dei sistemi tecnici (oltre che del capitalismo), allora la tecnica non può che essere totalizzante e totalitaria.
Chip: il re invisibile da cui dipende la sociatà digitale
Ma torniamo al transistor e poi al chip, con il quale tutto sembra cominciare. Molto tempo fa, certo, ma poi tutta la sua storia si accelera in una commistione come sempre perversa tra ricerca e innovazione scientifica, industria e complesso militare-industriale. E oggi il chip è ovunque, così piccolo, sempre più piccolo da essere invisibile – Il re invisibile, lo chiama appunto Cesare Alemanni nel suo ultimo libro[iii] dedicato alla storia del chip – ma senza il chip nulla funzionerebbe nella società sempre più digitale e sempre più digitalizzata, cioè connessa, cioè integrata come una fabbrica (integrata) globale. Andiamo allora a frugare nella storia del chip, grazie al racconto di Alemanni.
Storia ed evoluzione del chip
Il microchip, infatti, “è il fondamento su cui poggia per intero la nostra civiltà digitale e la sua economia da decine di migliaia di miliardi di dollari all’anno. Al contempo è il manufatto più complesso mai prodotto serialmente dal genere umano [meglio: dal capitalismo industriale] e riprodotto nel maggior numero di esemplari nella storia”; e l’industria, secondo le ultime stime, “ha complessivamente prodotto 13 sestilioni (10 seguito da 21 zeri) di chip in poco più di mezzo secolo” e il loro mercato “somiglia ormai più a quello di una materia prima che a quello di una merce. Di più, “nel 2022 le aziende di chip nel mondo hanno complessivamente movimentato 1,1 triliardi di semiconduttori, una media di 140 chip per ogni essere umano attualmente in vita sul pianeta”[iv].
Il chip e la computazione odierna – che sono figli della rivoluzione scientifica, ma poi soprattutto della rivoluzione industriale (che è altra cosa dalla rivoluzione scientifica) – hanno una storia che inizia con un matematico autodidatta inglese, George Boole, che “sognava di trasformare il linguaggio del pensiero in algebra” ed esprimere le relazioni logiche in forma algebrica, cioè matematica, attraverso numeri[v] – di fatto dando attuazione alla chimera “del padre filosofico del sistema binario e del moderno concetto di computazione”, cioè il filosofo sassone Gottfried Wilhelm Leibniz. Una storia che passa per Babbage e prosegue con l’invenzione del relè elettromeccanico, poi arriva a Turing e ai Bell Labs e all’Eniac (1943), “uno dei più ambiziosi progetti di calcolatore mai tentato”, avviato con un budget di 150mila dollari dell’esercito americano – appunto, entra in scena il complesso militare industriale – e che aveva una caratteristica unica e importante, la programmabilità, che permetteva “di eseguire più di una singola tipologia di calcolo e di operazione”[vi]. Arrivando (1954) al Tradic – Transistor Digital Computer – “il secondo calcolatore al mondo a utilizzare i transistor”[vii] – 2500 in totale e 10mila diodi di germanio, poi sostituito dal ben più abbondante silicio.
Un groviglio di fili
Il problema era che per poter far funzionare un computer, “ogni singolo transistor doveva essere interconnesso con tutti gli altri per mezzo di lunghe matasse di fili”, che nei computer degli anni Cinquanta arrivavano a decine di chilometri. E l’interconnessione diventa quindi sempre più il problema ma anche l’esito ineluttabile/deterministico del sistema tecnico. Come scriveva infatti sempre Anders, non esistono più macchine singole, ma tutte le macchine – e anche i transistor sono macchine – tendono a convergere in macchine sempre più grandi e interconnesse. E in macchine che sempre meno hanno bisogno dell’uomo, arrivando oggi al machine learning/intelligenza artificiale. E così – invece di continuare a costruire transistor separati, da connettere poi mediante fili – “si arrivò a montare un intero circuito, composto da molteplici transistor interconnessi, direttamente sopra un pezzo di materiale semiconduttore”[viii]. E si arriva al primo microprocessore della storia (1971), con il nome di Intel 4004, con 2300 transistor e capace di eseguire 60mila operazioni al secondo.
Di più: essendo il taylorismo il principio fondatore della modernità, si arrivò a una “sorta di divisione del lavoro dei transistor all’interno di processori e computer (insieme, ovviamente, all’aumento tout court della potenza di computazione)”, perché infatti, aggiungiamo, la divisione tayloristica del lavoro (come della società e dell’individuo) aumenta l’efficienza ma soprattutto la produttività (qui la potenza di computazione nella fabbrica-computer) e quindi il profitto dell’impresa, perché il taylorismo ha un primo movimento (la suddivisione del lavoro – e non solo del lavoro), per ottenere poi, secondo movimento, il massimo di convergenza e soprattutto di integrazione della parti suddivise nel tutto – dove tuttavia più integrazione, pensiamo al lavoro, genera minore conoscenza e quindi minore libertà.
E infine si è arrivati, “in una manciata di decenni, da transistor grandi come un’unghia agli attuali transistor da meno di 10 nanometri, laddove per nanometro si intende un milionesimo di millimetro o, se preferite, un miliardesimo di metro. Grazie a tali sviluppi, da una densità di pochi transistor per circuito si è giunti a una densità di centinaia di milioni per millimetro quadrato, centinaia di miliardi per centimetro. In proporzione inversa è crollato il prezzo dei transistor: da otto dollari per singolo esemplare degli anni Sessanta siamo arrivati al prezzo (medio) di un dollaro per venti milioni, oggi”[ix].
E la storia continua, ora verso i chipAsic, tra innovazione tecnologica, nazionalismi tecnologici e guerre tecnologiche, libertà industriale illimitata (a cui gli uomini e le società devono solo adattarsi senza protestare) e complesso militare-industriale, tra capitalismo digitale e capitalismo della sorveglianza. Ma soprattutto sembra proseguire verso un ulteriore accrescimento/pervasività del totalitarismo dei numeri e della trasformazione di tutto in numeri. Quasi peggio che essere tutti trasformati in merce. Comunque il mondo dividendosi sempre più “da un lato, con pochi colossi in grado di accelerare il ritmo dell’innovazione, concentrando e mobilitando enormi capitali finanziari e tecnologici e, dall’altro, fette di società sempre più ampie costrette a adeguarsi a standard tecnologici di serie B”[x].
Il capitalismo monopolistico digitale
Ma lasciamo il libro di Alemanni. Perché c’è altro e di molto più pericoloso, accanto a dover diventare numeri e non persone. Siamo cioè sempre dentro al monopolio (anche digitale) del capitale (anche digitale). E torniamo all’inizio di questo contributo, perché tutto ciò che ha a che fare con il chip (bug compresi) è prodotto da un capitalismo monopolistico oggi appunto digitale, analogo a quello monopolistico degli anni Settanta, analogo a quello della seconda e, andando a ritroso, della prima rivoluzione industriale. Sempre capitalismo monopolistico è, contraddicendo appunto tutti i dogmi liberali e neoliberali. Monopolio/oligopolio sempre più grande, sempre più pervasivo, sempre più accettato come ineluttabile, quando invece non dovrebbe esserlo[xi].
Come scriveva Luciano Gallino – che riprendiamo ancora una volta per richiamare ancora una volta l’importanza del tema – oggi “la grandissima maggioranza della popolazione è totalmente esclusa dalla formazione delle decisioni che ogni giorno si prendono” nei settori dell’economia, di fatto espropriati e alienati dalla democrazia, per l’azione di quel soggetto che si chiama grande impresa, industriale o finanziaria, italiana o straniera che sia e da tempo anche digitale.
E aggiungeva (2011): “Il fatto nuovo del nostro tempo è che il potere della grande impresa di decidere a propria totale discrezione che cosa produrre, dove produrlo, a quali costi per sé e per gli altri, non soltanto non è mai stato così grande, ma non ha mai avuto effetti altrettanto negativi sulla società e sulla stessa economia. Richiamando F. D. Roosevelt – che nel 1938 si dichiarava preoccupato non solo perché l’impresa privata creava sempre meno occupazione e accentuava le disuguaglianze sociali, ma perché era una minaccia per la stessa democrazia esercitando un potere più forte e condizionante dello stesso stato – Gallino quindi aggiungeva: ormai “la preoccupante visione di Roosevelt si è pienamente avverata”[xii].
E se la vita e la società e la biosfera sono assoggettate al potere di imprese private o al complesso militare-industriale, significa che la degradazione della vita, della società e della biosfera ha raggiunto livelli che dovrebbero essere intollerabili.
E invece no.
Bibliografia
[i] “Come il bug di Crowdstrike ha mandato in tilt i computer di mezzo mondo” -https://www.wired.it/article/crowdstrike-microsoft-guasto-come-e-successo/
[ii] Ibid
[iii] C. Alemanni, “Il re invisibile. Storia, economia e sconfinato potere del microchip”, Luiss UP, Roma 2024
[iv] Ivi, pag, 10
[v] Ivi, pag. 15
[vi] Ivi, pag. 35
[vii] Ivi, pag. 41
[viii] Ivi, pag. 42
[ix] Ivi, pag. 66
[x] Ivi, pag. 156
[xi] E rimandiamo al nostro: https://www.agendadigitale.eu/cultura-digitale/i-dati-e-il-capitalismo-digitale-oggi-come-ieri-la-disuguaglianza-e-una-scelta-politica/
[xii] Cit. in L. Demichelis, “La società-fabbrica”, Luiss UP, Roma, 2023, pag. 232