Studiosi, esperti, centri di ricerca pubblici e privati, che approfondiscono temi relativi agli sviluppi dell’intelligenza artificiale (IA), hanno elaborato contrastanti scenari evolutivi in merito agli effetti potenziali sul futuro dell’umanità.
Sviluppi dell’IA: il dibattuto sugli scenari macroeconomici
Senza ricorrere alla diffusa tassonomia categoriale di tecno-ottimisti e tecno-pessimisti, intento di queste note è quello di porre in evidenza temi cruciali per l’evoluzione dell’IA, cercando di mettere in luce i costi e i rischi per l’umanità. L’obiettivo perseguito consiste nel delineare linee divergenti di trasformazione socio-tecnica, senza perdere di vista un elemento fondamentale: l’IA, compresa l’IA generativa (d’ora in poi GenAI), è una peculiare forma di tecnologia, ma è pur sempre un prodotto della creatività umana e al tempo stesso è un insieme di componenti o sotto-sistemi, che interagiscono tra loro. Ciò implica che essa vada vista come un sistema socio-tecnico aperto, multi-livello, capace di innescare interazioni multi-scala a livello globale. In breve, siamo di fronte ad una creazione umana che, grazie ad una infrastruttura computazionale planetaria[1], può organizzare e controllare flussi di informazioni, generate nella sfera informativa che circonda e permea la sfera fisica e il mondo vivente in continua evoluzione, a cui Teilhard de Chardin aggiunge un ulteriore strato, definito noosfera. Si tratta della sfera del pensiero degli umani che sono gli unici a “conoscere di conoscere”, a differenza di quanto accade negli altri mali, che conoscono senza avere la consapevolezza di conoscere.
Un saggio pubblicato di recente (Acemoglu, 2024) ha innescato di nuovo il dibattito internazionale, sulle peculiarità dell’IA e sulle proiezioni macroeconomiche degli sviluppi dell’IA, delineate per il prossimo decennio in base a un modello incentrato sull’analisi delle modalità lavorative dirette alla produzione di beni (task-based model). Prendendo le mosse da questo contributo è ragionevole discutere su aspetti cruciali delle previsioni sul futuro dell’IA e sui potenziali effetti.
Le prospettive per il prossimo decennio nella rappresentazione di Acemoglu
Il background cognitivo del contributo è costituito dai concetti e dallo schema teorico espresso in tre precedenti studi di Acemoglu e Restrepo (2018, 2019, 2022), dove sono descritti gli ingredienti essenziali del modello task-based, che l’analisi sviluppata nel 2024 sviluppa partendo dai risultati di studi teorici e sperimentali (Peng et al., 2023; Noy e Zhang, 2023; Brynjolfsson, 2023) e impiegando i dati aggiornati in recenti studi (Eloundou et al., 2023; Svanberg et al., 2024).
L’automazione secondo Acemoglu
Nello schema rappresentativo di Acemoglu l’automazione indica l’espansione del set di “attività-compiti lavorativi svolti dal capitale, inteso come insieme di tool digitali e algoritmi, che generano incrementi di produttività media per lavoratore. I canali generatori dell’aumento di produttività sono appunto l’automazione, intesa come modelli di IA (sia tradizionali che “generativi”), i quali sostituiscono determinati compiti lavorativi, riducendone al contempo i costi, e dall’altro la task complementarity¸ che “favorisce l’incremento di produttività in compiti non pienamene automatizzati e può anche accrescere la produttività marginale del lavoro” (Acemoglu, 2024: 2).
Automazione, task complementarity e produttività
Automazione e task complementarity sono i canali attraverso cui si ottiene l’aumento di produttività, misurato in termini di crescita dell’output medio per lavoratore oppure, rispettando i canoni del mainstream accademico, della produttività totale dei fattori (TFP, total factor productivity)[2]. L’automazione implica sostituzione del lavoro e riduzione dei costi per determinati task¸ mentre la task complementarity comporta aumento di produttività in attività lavorative non pienamente automatizzate, in tal modo favorendo l’incremento della produttività del lavoro. Acemoglu non considera nel suo modello “l’approfondimento dell’automazione”, cioè l’aumento d produttività del capitale in seguito all’introduzione di nuove tecnologie come l’IA generativa impiegata in task già automatizzati, perché in realtà l’impatto della GenAI non coinvolge precedenti tecnologie digitali[3].
Acemoglu chiarisce poi che la sua rappresentazione formale non comprende discontinuità scientifiche, come ad esempio AlphaFold[4], il cui impatto sulla scoperta e la produzione di nuove medicine è ritenuto non essere significativo prima di 10 anni, arco temporale scelto dallo studioso per l’elaborazione del modello predittivo.
La metodologia usata da Acemoglu
La metodologia impiegata si compone di due elementi basilari: 1) calcolo gli effetti microeconomici dell’IA in termini di riduzione dei costi, equivalenti all’aumento della produttività a livello di task. 2) Calcolo del prodotto interno lordo e degli incrementi di produttività aggregata sulla base della stima delle componenti dei task interessati e quindi del risparmio in termini di costo medio per i task presi in considerazione.
Pur riconoscendo che l’incertezza circa quali task saranno automatizzati o complementari, Acemoglu procede a stimare le quote di PIL sulla base di quanto risulta dai calcoli dei task ”esposti all’IA” secondo Eloundou et al (2023). I dati acquisiti sono poi aggregati al livello occupazionale e all’importanza di ciascuna occupazione in base al peso della corrispondente massa salariale sull’economia USA. Quindi Acemoglu riprende le stime effettuate da Svanberg et al. (2024), Noy e Zhang (2023) e Brynjolfsson et al. (2023), per dedurre un risparmio in termini di costo del lavoro, connesso alla quota del lavoro nell’industria, pari la 14,4%. Questi calcoli, riformulati in termini di TFP inducono effetti pari a +0,66% in totale, che corrispondono approssimativamente ad una crescita annuale di circa lo 0,064%.
Per tradurre i dati numerici esposti in termini di stime del PIL occorre considerare l’incremento dello stock di capitale, prima definito, dovuto all’impiego di IA. A questo riguardo Acemoglu (2024: 3-4) assume che lo stock di capitale cresca proporzionalmente alla TFP. Il punto di arrivo della sua analisi è allora che l’aumento stimato di PIL è compreso tra 1,4% e 1,56%.
La distinzione tra task facili e difficili e gli effetti sulla produttività
Un’assunzione importante è che i task possono essere distinti in “facili” (easy) e “difficili” (hard). I primi sono facili da apprendere, perché misurabili sotto il profilo della produttività e del costo, quindi agevoli da far svolgere a sistemi di algoritmi. I secondi sono invece contraddistinti dall’essere il risultato dell’interagire di molti fattori contestuali, che influiscono su processi decisionali. In tali casi la presenza di agenti umani è cruciale, mentre la possibilità di misure oggettive degli output è minore. La conseguenza ulteriore è pertanto che per i primi gli incrementi di produttività sono sicuri e calcolabili, ciò che è in gran parte precluso ai secondi.
Una serie di altre assunzioni “speculative” induce Acemoglu a stimare che gli easy task siano il 73% di quelli “esposti all’IA” e gli incrementi di produttività generati dagli hard task non superino il 25% di quelli facili. Le stime appena esposte portano a calcolare che gli effetti in termini di produttività totale dei fattori e del PIL nell’arco dei prossimi dieci anni non siano superiori rispettivamente a 0,53% e 0,90%.
Nuovi task creati con l’impiego di IA
Per quanto riguarda nuovi task creati con l’impiego di IA, è da ipotizzare che possano costituire una porzione molto significativa, ma una componente non esigua di essi sono “manipulative and may have negative social value”[5]. Ciò riduce il welfare, anche se un uso intensivo dell’IA potrebbe generare “non trivial increases in GDP”. È infatti ipotizzabile che si possa realizzare una crescita del PIL del 2%, unita ad una riduzione del welfare di -0,72% (in unità equivalenti di consumo). Su questa base – arricchita con dati desunti da studi Peng et al. (2023, Noy e Zhang (2023) Brynjolfsson et al. (2023) – Acemoglu elabora un modello formale di economia competitiva in equilibrio, con rendimenti di scala costanti, quindi incentrato su una funzione di produzione standard, i cui input (capitale e lavoro) variano secondo le modalità prima indicate[6]. Il passo logico successivo consiste nel proiettare i miglioramenti di produttività a livello micro nelle modificazioni a livello macro, che porta a stime di effetti modesti sulla produttività totale dei fattori, pari a 0,66% su un periodo di 10 anni, ovvero circa 0,064 su base annuale. Ciò si traduce in una spinta verso la crescita del PIL tra 0,93% e 1,16%, sempre su dieci anni, se l’investimento in IA è modesto, e tra 1,4% e 1,56% in presenza di un boom di investimenti (pp. 33-35 per la formalizzazione e pp. 43-44 per l’esplicitazione dei risultati).
IA e asimmetria nella distribuzione della ricchezza
Molto interessanti sono anche gli esiti del modello in merito alla distribuzione della ricchezza prodotta. L’impiego significativo di IA generativa induce un processo distributivo asimmetrico tra i gruppi sociali, in particolare a sfavore dei salari, dal momento che i task esposti all’IA sono più uniformemente distribuiti tra i gruppi sociali di quanto è avvenuto con le precedenti ondate innovative. Si avrà anzi un’espansione del divario tra redditi di capitale e redditi da lavoro. In breve, i benefici della dinamica tecnico-produttiva possono essere differenti qualora si creino nuovi task per i lavoratori in genere e soprattutto per quelli con retribuzioni medio-basse.
Considerazioni sul modello di Acemoglu e le implicazioni
Per dimostrare proposizioni molto interessanti e condivisibili anche da altri punti di vista, Acemoglu impiega un approccio standard, con alcune assunzioni che destano qualche perplessità. Innanzitutto l’approccio incentrato sull’idea di un’economia competitiva in equilibrio con due input e rendimenti di scala costanti, ovvero l’assunzione che a determinate variazioni degli input corrispondano analoghe variazioni degli output. Si parte da una rappresentazione simmetrica del mondo tecno-economico, per poi introdurre elementi che generano molteplici asimmetrie tecnologiche, economiche e socio-tecniche, raffigurate in un orizzonte decennale. Le ipotesi teoriche sono poi implicitamente abbandonate con l’inserimento di trasformazioni asimmetriche, derivate dagli studi citati dall’autore e tali da generare squilibri diffusi.
È comprensibile la necessità di partire da una rappresentazione standard per conferire credibilità accademica alla successiva elaborazione, ma da un punto di vista sostanziale sarebbe importante che economisti prestigiosi come Acemoglu facessero meno concessioni alla (per così dire) “ritualità accademica”, per affrontare la questione prendendo le mosse da un quadro rappresentativo di un’economia in disequilibrio, nella quale si inseriscono le odierne direttrici, che sono ulteriormente squilibranti.
Una delle ragioni per adottare un approccio diverso è il fatto che questa metodologia rappresentativa si presta a facili interpretazioni critiche di commentatori, che propongono un argomento “facile”: le conclusioni dipendono dalle assunzioni di base. È proprio quanto è accaduto, come vedremo tra breve.
Un’altra considerazione doverosa è a nostro avviso la seguente: il modello ha una ulteriore assunzione implicita, cioè che sia possibile proiettare le deduzioni, effettuate in base al modello con una del tutto accettabile procedura di calcolo, dal livello micro a quello macro in un arco decennale, senza tenere conto della tipologia e della natura “distruttiva” delle cause generatrici di asimmetrie tecno-economiche. Le innovazioni di cui si devono stimare gli effetti, infatti, sono tali da indurre modificazioni profonde e generalizzate, quindi intrinsecamente imprevedibili nella loro evoluzione e nelle implicazioni, che nel caso dell’IA sono –dato lo scenario odierno- multi-scala, complesse, dipendenti dalle azioni strategiche di attori, che si muovono in un orizzonte di processi decisionali caratterizzati da incertezza sostanziale.
È logico che in questa prospettiva l’idea di rendimenti costanti di scala è discutibile, mentre divengono probabili periodi di rendimenti variabili (crescenti e decrescenti), date le discontinuità che è legittimo attendersi in seguito alla “distruzione creatrice”, originata dall’IA.
La letteratura sugli effetti di breve e lungo periodo degli sviluppi dell’IA
Le differenze esistenti tra le proiezioni di Centri di ricerca e ricercatori di IA sono correlate alle assunzioni metodologiche e concettuali, sviluppate in un orizzonte temporale di medio-lungo periodo. Bisogna in realtà tenere presenti la natura e la tipologia della dinamica innovativa, perché dalle loro caratteristiche fondamentali dipendono le modalità evolutive, derivanti dalle interazioni tra le varie componenti dei sistemi socio-tecnici, che costituiscono l’universo fisico-informativo odierno. È logico ipotizzare che le innovazioni incrementali abbiano un impatto minore di quelle disruptive che cambiano aspetti fondanti dei sistemi socio-economici.
Il processo diffusivo è nel primo caso caratterizzato da trasformazioni adattative, che sono più agevoli da realizzare e tendenzialmente più rapide di quelle prodotte dalle disruptive e transformational (vedi oltre). In questo caso, infatti, l’adozione di tecnologie che cambiano i parametri di fondo dei sistemi possono innescare meccanismi reattivi molto differenti, generando varietà solo in parte prevedibili. In altri termini, si apre uno spazio esplorativo dove le strategie degli agenti, fattori culturali e socio-organizzativi, infine l’ethos prevalente in determinati contesti politico-istituzionali e tecnico-produttivi possono generare comportamenti interattivi necessariamente non prevedibili.
Siamo in presenza di dinamiche complesse, che derivano dall’interagire di molte dimensioni, quindi non lineari. Tutto questo avviene perché tecnologie innovative di natura sistemica e multidimensionali aprono spazi di ridefinizione delle relazioni strutturali, socio-economiche e culturali, al cui interno la varietà degli esiti possibili aumenta in modo esponenziale a seconda dei contesti di applicazione. L’IA, in particolare quella generativa, basata su modelli linguistici, ha il potere di generare cambiamenti estesi e profondi, quindi di indurre dinamiche complesse ed effetti non lineari a scala variabile, locale e globale. Di qui deriva l’estrema varietà delle conseguenze e, elemento di importanza primaria, la diversità delle sequenze temporali delle trasformazioni, a seconda dei contesti di diffusione.
GenAI: perché è difficile che i modelli previsionali contengano rappresentazioni dinamiche di alta attendibilità
Questi aspetti sono di grande rilevanza nel caso della GenAI: proprio per il fatto di essere basata su modelli linguistici, che strutturano le rappresentazioni dei processi socio-economici e contribuiscono a delineare la trama dei sistemi socio-tecnici. Su queste basi è molto difficile che i modelli previsionali possano contenere rappresentazioni dinamiche di elevata attendibilità. La conseguenza è che, date le differenti assunzioni metodologiche e concettuali alla base dei modelli, si possono definire una molteplicità di scenari formalmente corretti, ma di natura intrinsecamente limitata, con il rischio che si favoriscano contrastanti ondate emotive, entusiasmi e caduta di fiducia nell’IA, quindi eccessi di borsa e cadute di valori, susseguirsi di “estati e inverni“ (Fig. 1) e insorgere di quesiti di fondo: “boom or boomlet” dell’IA? (Waters 2023)
Fig. 1 Summer and winter nell’evoluzione dell’IA – Fonte: https://techgenies.com/ai-history-the-first-summer-and-winter-of-ai/
Il tutto è, nel caso della GenAI, ulteriormente complicato dalle dichiarazioni di autorevoli esponenti del mondo dell’IA. Sundar Pichai (CEO di Alphabet) ha affermato che l’IA è più importante dell’invenzione del fuoco e dell’elettricità. L’economista Erik Brynjolfsson ritiene che la GenAI sia il catalizzatore di un boom di produttività (Byinjolfsson et al., 2023). Appare allora ragionevole chiedersi con Waters (2023): “È cambiato qualcosa dopo un anno dopo la rivoluzione di ChatGPT?”[7]
I maggiori player dell’AI hanno visto nel periodo più recente alti e bassi di notevole entità, come si evince chiaramente dalla Fig. 2 (valori di mercato) e dalla Fig. 3 (dinamica degli investimenti).
La variazione delle quotazioni è stata rilevante: caduta a 2,7tn di dollari nel 2022 e balzo in alto a 3,7tn nel 2023.
Fig. 2
Nel 2024 gli investitori “sembrano aver tirato il freno” e aver adottato un atteggiamento prudenziale (“wait and see”) verso gli eventi in atto nel capo dell’IA (Pitchbook, 2024)
Fig. 3
L’alternarsi di periodi di entusiasmo e delusione, di euforia e inversione delle attese è ricorrente nella storia dei processi innovativi, soprattutto quando appaiono le “transformational technologies”, che hanno il potenziale di ingenerare vere e proprie “nuove economie”, dando così origine a “bolle produttive”, allorquando la sfera finanziaria inizia un’accelerazione espansiva per cogliere nuove e inattese opportunità di ricavi sull’onda di un diffuso entusiasmo, prima che questo si raffreddi al primo manifestarsi di difficoltà ed ostacoli.
È ipotizzabile che qualcosa del genere stia accadendo con la GenAI, dal momento che gli “agenti generativi” tendono non di rado a produrre le cosiddette “allucinazioni” e informazioni non accurate, in quanto essi non effettuano controlli in merito alle veridicità/fondatezza delle informazioni acquisite tramite l’enorme set di addestramento a cui sono sottoposti.
Come se tutto questo non bastasse c’è anche il fatto che molti potenziali clienti non possono permettersi, alla luce dei rischi di errori e distorsioni informative (Heath, 2023; S&P Global Marketing Report, 2023). Saremmo oggi di fronte a fattori che sembrano produrre tendenze verso una lenta dinamica della domanda di GenAI, ma lo scenario contraddice quanto sostengono Goldman Sachs in risposta ad Acemoglu (Pethokoukis, 2024; Goldman Sachs, 2023) e Gartner (2023a).
La discussione sulle assunzioni basilari su cui è costruito il modello di Acemoglu
Nel primo caso vengono messe in discussione le assunzioni basilari, su cui è costruito il modello di Acemoglu (2024: 7): 1) economia statica. 2) Produzione di un unico bene finale. 3) Tutti i mercati sono competitivi.
Gartner (2023a) invece, con il proprio modello, incentrato sull’Hype Cycle, argomenta che la GenAI è prossima al picco (Fig. 4), in un quadro di aspettative ottimistiche: “The massive pretraining and scale of AI foundation models, viral adoption of conversational agents and the proliferation of generative AI applications are heralding a new wave of workforce productivity and machine creativity.”
Fig.4
Viene infatti previsto (Gartner, 2023b) un aumento spesa globale nelle tecnologie dell’informazione pari all’8%, con l’AI come fattore dinamico importante, ma il suo impatto non sarà significativo fino al 2025, a causa dell’agire di alcune barriere quali: 1) incertezze sulla stima del valore dell’AI. 2) Scarsità di competenze. 3) Non piena fiducia negli aspetti tecnologici dell’AI. 4) Insufficienza di dati. 5) Disallineamento con i modelli di business. 6) Mancanza di fiducia nell’IA (Gartner, 2024).
Occorre poi aggiungere un altro elemento, esogeno ma non meno significativo, ovvero che iniziano ad emergere perplessità in merito al raggiungimento in tempi ravvicinati dell’obiettivo della Artificial General Intelligence (AGI)[8]. Non è un caso che Sam Altman, CEO di OpenIA, abbia dichiarato a Davos, nello scorso Gennaio, che l’AGI arriverà tra non molto, l’impatto trasformativo sul mondo sarà minore di quello ipotizzato (CNBC, 2024).
Il dinamisco economico dell’IA è sovrastimato?
Appare dunque fondato chiedersi con Pethokoukis (2024): “stiamo forse sovrastimando il potenziale dinamismo economico dell’IA?” È forse attendibile, alla luce delle considerazioni svolte finora, la congettura di Waters (2023), secondo il quale “la rivoluzione della GenAI non avverrà rapidamente e il 2024 potrebbe essere un momento di svolta”.
Non possiamo però lasciare che si sviluppi una dinamica lasciata a sé stessa. È necessario stimolare la riflessione affinché gli umani, a livello individuale e collettivo, siano consapevoli delle traiettorie che si stanno dispiegando e quindi elaborino strategie appropriate, in modo da perseguire come asse centrale il benessere dell’umanità.
GenAI: scenari possibili e la necessità di interventi strategici
Il punto di partenza di un’ampia riflessione nella prospettiva indicata è il dato che la GenAI ha un indubbio potenziale trasformativo dell’economia globale, ma occorre agire affinché esso sia a beneficio dell’umanità (Georgieva, 2024). Le ragioni a fondamento di questa affermazione sono, a nostro parere, le seguenti.
Esiste un’infrastruttura tecnico-scientifica globale composta di dispositivi computazionali ubiquitari, che producono incessantemente informazioni. Una sfera informativa planetaria è pertanto auto-generata e al tempo stesso ampliata senza sosta da feedback multi-scala tra un’enorme varietà di tipologie di agenti e processi fisico-sociali. Siamo quindi in presenza di un crescente livello di complessità, che aumenta via via che si diffonde l’impiego della GenAI. Il tutto non può che determinare un’incertezza sostanziale, inevitabile se si pensa al fatto che il processo diffusivo è condizionato dal doversi misurare con una molteplicità di dimensioni, a loro volta variabili negli ambiti di applicazione: culture prevalenti, innovazioni tecnico-scientifiche, operatività delle strutture istituzionali, visioni politiche, ethos predominante nei contesti applicativi.
Emerge così la rilevanza dell’intreccio tra multidimensionalità, complessità e incertezza delle dinamiche possibili, da cui discende la scarsità di basi conoscitive allo scopo di individuare traiettorie evolutive ben definite.
Proprio tale spazio indefinito di evoluzione richiede prudenza interpretativa e deve indurre a ritenere che previsioni di medio-lungo periodo abbiano un elevato grado di aleatorietà, in quanto basate su assunzioni a priori, la cui fondatezza probabilistica è giocoforza limitata. Si tratta quindi di esercizi utili, ma non tali da ritenere fondanti per una ben determinata e precisa linea strategica di azione.
L’importanza di interventi di indirizzo delle dinamiche evolutive
Bisogna allora rinunciare ad agire, rassegnandosi all’attesa di ciò che accade? Al contrario, proprio la natura indefinita di uno spazio evolutivo multidimensionale e complesso deve indurre a progettare interventi diretti a fare leva su fattori che possano favorire direttrici preferibili, rispetto ad altre ritenute dannose o deleterie per il benessere dell’umanità. Ciò non solo è possibile, bensì anche doveroso, perché l’evoluzione di sistemi socio-tecnici a tutti i livelli è generata dal “gioco interattivo” tra le forze che si esplicano, soprattutto nelle fasi di profonda trasformazione come quella odierna. La sfera informativa planetaria e la noosfera, prima introdotta, evolvono grazie all’intreccio dinamico con i processi fisici e tecnologici a livello globale. Tutto questo non avviene casualmente, anche se il caso ha comunque un ruolo, ma è continuamente alimentato dalle strategie, di differente natura, attuate dai vari attori del mondo vivente e dai feedback ripetuti con i processi fisici multi-scala.
In altri termini, occorre influenzare il potenziale di tendenze che si profilano in un orizzonte indefinito, partendo da quelle più rilevanti, ma considerate meno desiderabili, in modo da contenerle e deviarne il corso verso esiti auspicabili. Anticipare le tendenze, dunque, dovrebbe essere un principio operativo fondamentale, basato su framework conoscitivi aperti, data la tipologia di scenari e delle sfide, che si ergono di fronte ai decisori individuali e collettivi. Cerchiamo allora di esporre concretamente come ciò possa essere declinato nell’ indefinito orizzonte odierno.
È innanzitutto basilare l’individuazione di aspetti fondamentali, che connotano oggi l’evoluzione socio-tecnica globale. A questo gli ambiti in ci attuare interventi strategici possono essere immediatamente delineati: 1) la concentrazione di potere nel settore dell’intelligenza artificiale. 2) Le crescenti e diffuse asimmetrie nel tessuto socio-economico e nel mondo del lavoro. 3) Natura distorcente delle priorità che oggi dominano nelle strategie dei principali attori della sfera informative e nella noosfera. 4) Assenza di regolamentazione internazionale dell’IA.
Concentrazione di potere
L’aumento esponenziale della potenza computazionale e gli sviluppi della GenAI hanno portato alla crescente concentrazione di potere (Verdegem, 2021, section 3.7) in un numero ristretto di global player Usa (Google, Apple, Facebook, Amazon, GAFAM) e tre cinesi (Baidu, Alibaba, Tencent) (Tab. 1)
Fonte: Verdegen, 2021.
Queste imprese “giganti” sono proprietarie di potenti infrastrutture computazionali, tramite le quali possono utilizzare crescenti volumi di dati per i test di addestramento dell’IA, quindi sviluppare modelli di rappresentazione individuale e collettiva di consumatori e dei processi sociali, con rendimenti e investimenti in continuo aumento, come si evince dalla loro capitalizzazione di mercato. Hanno a tal fine agito una serie di feedback cumulativi tra attrazione di risorse materiali e intellettuali (migliori talenti), che hanno consentito di elaborazione di software sempre più sofisticato, a sua volta fattore propulsivo di più elevata potenza computazionale. È così stato possibile per Google diventare quasi monopolista nel campo delle ricerche online, Amazon (mediante AmazonWeb Services, AWS) e Alibaba monopolisti nell’e-commerce dei rispettivi Paesi, mentre Meta (Facebook) e Tencent dominano i social di Usa e Cina.
La posizione dominante delle società indicate è confermata dagli elevati volumi di investimento, come indicano i report del primo quadrimestre del 2024: Alphabet (società che controlla Google), Amazon e Microsoft –tre giganti del cloud-computing a livello mondiale- hanno investito complessivamente (tra Gennaio e Marzo) 24 miliardi di dollari in gran parte nei data center, per far fronte alla crescente domanda di utilizzo dell’IA. In maggio Meta, che non ha il cloud nel proprio modello di business, ha annunciato che quest’anno gli investimenti potrebbero ammontare a 40 miliardi di dollari per progetti connessi all’IA (The Economist, 2024a)[9].
Le entità dominanti, ciascuna nel proprio campo di azione, esercitano un potere rilevante nel modellare i comportamenti socio-economici e legali (Osman, 30-06-2024), ostacolando eventuali entrate di altre imprese e al tempo stesso diventando protagoniste di investimenti in startup leader dell’innovazione a livello mondiale. Si è quindi profilata quasi una sorta di corsa competitiva verso le startup. Nel dicembre 2023 Microsoft ha stretto un’alleanza multimiliardaria con OpenAI, produttrice di ChatGPT, che viene così ad avere una struttura complessa, anche se è formalmente una società no-profit[10].
L’interesse per le startup è comune ad altri giganti del web. Amazon ha investito 2,75 miliardi di dollari in Anthropic, fino a raggiungere un totale di 4 miliardi, ammontare più elevato dell’investimento nella stessa startup da parte di Google (2 miliardi di dollari), ad indicare la tensione competitiva dei big player per imprese con talenti nel campo dell’IA. Microsoft ha investito nella francese Mistral e ha stretto per 560mln di dollari un accordo con Inflection, startup creata da Mustafa Suleyman, C’è da dire che Anthropic ha prodotto Claude 3, superiore a ChatGPT-4 in una serie di attività di punta (Hammond e Hodgson, 2024).
La dinamica competitiva tra le Big Tech
Siamo quindi di fronte ad una dinamica competitiva tra le Big Tech, con posizioni predominanti nei rispettivi ambiti di specializzazione, ma in concorrenza per l’acquisizione di risorse intellettuali, necessarie per consolidare-ampliare il proprio spazio in uno scenario globale. È pertanto logico che i detentori di ruoli così rilevanti esercitino il potere in funzione delle proprie esigenze di profittabilità e di difesa dello status quo, adottando comportamenti anticoncorrenziali e di difesa preventiva contro indesiderate politiche di regolamentazione.
Jonathan Kanter, autorità antitrust degli Usa, ha di recente dichiarato al Financial Times (Morris, 2024) che occorre esaminare con attenzione e tempestivamente le azioni dei player dell’IA, i quali tendono a organizzare attività e servizi tali da ostacolare la concorrenza e a rafforzare situazioni di monopolio. Sempre negli Usa il Dipartimento di Giustizia (dove opera Kanter) e la Federal Trade Commission hanno poi raggiunto un accordo, in base al quale si suddividono il compito di sorveglianza antitrust dei “critical player”. L’ambito di controllo comprende anche Nvidia, il maggior produttore al mondo di GPUs (Graphic Processing Units), processori che lavorano in parallelo, cioè chip essenziali per le crescenti esigenze computazionali dei dispositivi di IA (Acton e Megaw, 2024)[11].
La dinamica esponenziale della tecno-scienza, i cospicui investimenti, la conseguente accumulazione di capitale e l’acquisizione di posizioni dominanti sui mercati di riferimento sono l’esito di una serie di feedback positivi, che trovano espressione in modelli di business auto-rinforzantisi, ovviamente non messi in discussione. Il successo così ottenuto induce le stesse società a cercare di contenere i potenziali interventi delle istituzioni in tema di concentrazione di potere. Esse stanno infatti esercitando significative attività di lobbying, grazie alla creazione di appositi team, preposti a interagire con le autorità antitrust. Per esempio, OpenAI ha detto al Financial Times di aver creato uno staff internazionale di lobbisti, composti da 35 persone nel 2023, ma che dovrebbe ampliarsi a 50 entro il 2024. Quella che è definita “global affairs unit” è posizionata strategicamente nei Paesi in cui la legislazione antitrust è più avanzata: Inghilterra, Irlanda Francia, Singapore, India, Brasile, Usa (Criddle ed Espinoza, 2024).
Secondo documenti resi pubblici, gli impegni di risorse in tema di lobbying verso le autorità antitrust sono così suddivisi: Meta ha speso 7,6mln di dollari (con 15 lobbisti), Google 3,1mln (5 persone dedicate), OpenAI 340.000 (solo due addetti allo scopo). In realtà OpenAI ha investito molte risorse in Europa, dove era in corso l’approvazione dell’AI EU Act, ma non è stata la sola impresa ad essere molto attiva. Un Rapporto sull’influenza della rete delle Big Tech sul processo decisionale delle istituzioni europee(CEO, 2021) dimostra che operano in attività di lobby 612 tra società, gruppi e associazioni di business. Le risorse investite complessivamente ogni anno ammontano a 97mln di euro. Nonostante l’ampio numero di partecipanti, in effetti un gruppo ristretto di grandi entità “domina l’universo”, ovvero Vodafone, Qualcomm, Intel, IBM, Amazon, Huawei, Apple, Microsoft, Facebook and Google, che spendono annualmente 32 milioni di euro. Il 20% delle società hanno base negli USA e l’1% in Cina, ma in ogni caso l’attività di lobbying viene esercitata collettivamente e non in maniera individuale.
Da queste brevi note si evince che la “forza di persuasione” delle Big Tech è di tutto rilievo, data la quantità delle risorse materiali (investimenti specifici) e intellettuali (elevate competenze specialistiche) mobilitate per influenzare le autorità internazionali che, a differenza degli interlocutori, non operano sulla frontiera della tecno-scienza. I rischi di una sproporzione di forze tra big player e autorità pubbliche sono tali da indurre l’Economist (2024b) a porre l’interrogativo: “Is artificial intelligence making big tech too big?”
Crescenti e diffuse asimmetrie
L’IA è considerata una General Purpose Technology, ovvero tecnologia dalle molteplici applicazioni e, soprattutto nel caso dei modelli di linguistici della GenAI, un indefinito universo applicativo, data la loro pervasività e i domini cognitivi su cui possono manipolare.
La Trappola di Turing nel mondo del lavoro
Ciò comporta che siamo in presenza di un potenziale trasformativo di cui non si conoscono i limiti, il che alimenta un eccesso di ottimismo ed esaltazione. In ogni caso, appare fondata la tesi che gran parte delle attività tecno-scientifiche ed economico-produttive saranno trasformate, dal momento che il trend prevalente è oggi incentrato non più solo nella digitalizzazione di funzioni esecutive e ripetitive, ma anche e soprattutto nella riprogettazione delle funzioni di contenuto cognitivo medio-alto. Essendo queste tecnologie considerate foundational, perché inducono cambiamenti dei parametri fondamentali di qualsiasi sistema multi-livello, è logico che non sia possibile affermare con precisione le specifiche evoluzioni in ogni settore applicativo.
È ciononostante fondato ritenere che emergeranno asimmetrie crescenti e di varia natura, via via che essere saranno adottate, sia pure a ritmi differenti in relazione alle specificità dei contesti. Asimmetrie di potere, cognitive, socio-economiche e politico-istituzionali saranno diffuse e implicheranno la necessità di interventi per ovviare a conseguenze profondamente negative anche per la tenuta democratica delle società (Acemoglu, 2023). Ai fini di questo contributo è rilevante soprattutto la dinamica delle imprese e del mondo del lavoro, che dovranno misurarsi con sfide senza precedenti. La possibilità di digitalizzare i processi fisico-sociali dalla nano-scala alla scala globale determina la necessità di nuovi modelli manageriali e porta alla ridefinizione generale delle competenze. Diviene allora cruciale rispondere a un basilare quesito: è rilevabile una precisa logica nelle modalità evolutive delle tecnologie tansformational?
La risposta all’interrogativo è affermativa per una fondamentale ragione. L’IA, così come si è sviluppata finora, si basa essenzialmente su quella che Erik Brynjolfsson (2022) ha definito la “trappola di Turing”, ovvero la risposta univoca alla domanda, passata alla storia come “Test di Turing”: “Possono le macchine pensare?”[12] Da quel saggio, pietra miliare per lo sviluppo dell’IA, è conseguito il perseguimento sistematico della creazione di modelli in grado di simulare l’intelligenza umana, quindi la tendenza all’automazione, che ha fatto aumentare la produttività e diminuire i costi del lavoro. Questo è avvenuto perché la distribuzione dei benefici dell’aumento di produttività è stato asimmetrico: la centralità assunta dall’automazione (sostituzione del lavoro umano, riduzione delle competenze) ha modificato gli equilibri tra le forze economico-sociali, con l’effetto di indebolire la posizione del lavoro umano, che ha perso potere economico e politico (Brynjolfsson, 2022: 273). È migliorata, invece la condizione di altri gruppi sociali (proprietari, imprenditori, inventori).
L’asimmetria nella distribuzione del reddito complessivo
L’asimmetria nella distribuzione del reddito complessivo crescente si è accompagnata, dato lo squilibrio tra le forze sociali, ad incentivi sfavorevoli verso l’affermazione di altre priorità, quali la diversificazione e l’aumento delle competenze del lavoro umano. L’aumento della disoccupazione, l’aumento della precarietà e la diminuzione dei salari per la perdita di potere contrattuale sono stati ulteriori conseguenze delle asimmetrie tecnico-produttive, che in tutto il mondo sono aumentate dal 1990 in poi, suscitando “profonde preoccupazioni” anche nel Fondo Monetario Internazionale per le profonde disuguaglianze economico-sociali, generate della GenAI (Brollo, 2024).
Le disuguaglianze economico-sociali
Lo scenario conseguente alla diffusione della GenAI non può che essere altamente incerto e irregolare a causa di alcuni fattori: 1) l’accelerato ritmo evolutivo dell’IA. 2) Le differenti modalità con cui Paesi e imprese reagiscono e adottano le nuove tecnologie. 3) L’intensità del processo di sostituzione oppure di sviluppo della complementarità tra IA e lavoratori. 4) La capacità di adattamento dei lavoratori ai mutamenti del mercato del lavoro, espressi nella domanda di competenze innovative e nella necessità di ampliare i domini di conoscenza. 5) Le politiche istituzionali, che devono costantemente monitorare la dinamica innovativa ed essere flessibili, nel tentativo di anticipare conseguenze potenzialmente negative.
Il Report dell’IMF (Brollo, et al., 2024) recepisce le principali conclusioni di una vasta letteratura circa l’ampliamento dell’impatto dell’IA, che investirà lavoratori attualmente in grado di svolgere attività a contenuto cognitive medio-alto, oltre alle tradizionali fasce di colo che svolgevano compiti lavorativi di routine. Il processo di diffusione investirà tutti gli ambiti socio-economici, spingendo attori privati e pubblici ad introdurre discontinuità strategiche e comportamentali.
D’altronde, aggiungiamo noi, l’ampiezza e l’intensità dei processi di trasformazione richiedono un cambiamento generalizzato delle conoscenze posseduto dall’intero tessuto economico-sociale. Di qui l’eterogeneità degli scenari possibili a seconda dei contesti di applicazione.
È chiaro che tutto questo indica un rilevante problema di disuguaglianza socio-economica, destinato ad essere ancora più marcata di quelle generate dalle precedenti ondate innovative nella storia dell’umanità, in quanto la dinamica innovativa si dispiega a livello mondiale, con differenti effetti nei Paesi avanzati e in quelli in via di sviluppo. La transizione tecnologica, infatti, deve essere realizzata insieme a quella ecologica, che a sua volta richiede un profondo ripensamento dei modelli di vita e di soddisfazione dei bisogni, tenendo anche presente l’emergere, in sperimentazioni presso un numero crescente di imprese, di tendenze verso una riduzione delle giornate lavorative.
Una transizione lunga e costosa
Tornando al Report dell’IMF, un elemento di rilievo ivi indicato è che si profila una “transizione costosa”, a causa del marcato mismatch che si profila sul mercato del lavoro tra esigenze di nuovi skills e le difficoltà di realizzare la loro formazione alla luce di tutti i fattori precedentemente descritti. C’è anche da aspettarsi una transizione lunga, perché il numero delle dimensioni e dei processi convolti sono innumerevoli, come le possibili direttrici di cambiamento, mentre crescono i rischi di un aumento della disoccupazione di lunga durata e di povertà per una significativa parte della popolazione. Una connessa linea di tendenza sarà anche la frammentazione dei gruppi sociali in base alla loro esposizione ai cambiamenti indotti dai vari gradi di diffusione delle nuove tecnologie, la cui dinamica comporta estesi e accurati processi di formazione di nuove competenze, connesse alla creazione di nuovi task. Ciò non può però avvenire senza un ripensamento strategico della traiettoria di sviluppo dell’IA.
L’impatto del sistema di tassazione sulla sostituzione del lavoro
Un altro importante fattore da considerare, che l’IMF mette in luce: il sistema di tassazione può influire in modo determinante nel favorire il trend verso la sostituzione del lavoro, se privilegia alcuni tipi di investimento rispetto ad altri. È a questo riguardo illuminante un grafico che mostra, nonostante le eterogeneità tra Paesi, il comune principio ispiratore, cioè l’incentivazione fiscale di investimenti sostitutivi anziché quelli complementari rispetto al lavoro Fig. 5. Il tema è cruciale, in quanto siamo in presenza di un sistema di incentivi che amplifica la traiettoria evolutiva prevalente oggi in tutti i Paesi, che ingenera le negatività illustrate finora.
Fig. 5
Fonte: Brollo et al (2024).
L’analisi sviluppata in questa sezione del contributo ha messo in risalto elementi decisivi della dinamica odierna: 1) accelerazione innovativa. 2) Eterogeneità del grado di adozione e delle modalità di adattamento alle nuove tecnologie, a seconda delle caratteristiche dei contesti applicativi (Paesi, imprese). 3) Tipologie di incentivi, che influenza la struttura degli investimenti. 4) Politiche pubbliche verso una transizione lunga e costosa, che ingenera molteplici asimmetrie.
Il punto di arrivo della disamina effettuata è che l’evoluzione socio-tecnica non può essere lasciata a sé stessa, ma occorrono interventi strategici a vari livelli per reindirizzare l’evoluzione tecnico-produttiva verso percorsi meno traumatici per la società, tenendo sempre presente che si deve esplorare uno spazio del possibile, agendo con strumenti appropriati.
Interventi strategici necessari: dal mercato del lavoro alla tassazione del capitale
Dai punti appena indicati discende innanzitutto la necessità di riorientare la traiettoria evolutiva incentrata sulla sostituzione del lavoro verso una direttrice fondata su quella che Byrnjolfsson (2022) definisce augmentation of human labor e Brollo et al. (2024: 24) definiscono expand human capabilities per nuovi task, con esplicito riferimento ad Acemoglu et al. (2023).
Nuovi processi formativi e di inserimento nel mondo del lavoro
Il perseguimento di questa finalità dipende dalla capacità di progettare e realizzare nuovi processi formativi e sistemi di inserimento nel mondo del lavoro, basati sulla diffusione sistematica di nuove conoscenze, appropriate per un ambiente tecnico-economico in accelerato cambiamento. Tutto questo non può prescindere da orientamenti strategici adeguati per una spesa sociale mirata su una transizione lunga e costosa (Brollo et al., 2024: 7-9). Saranno infatti necessarie iniziative diffuse per l’aggiornamento degli skills, unite a sostegno ai redditi durante periodi di disoccupazione più o meno lunghi, durante i quali sono essenziali politiche attive del lavoro, commisurate appunto alla progettazione di nuovi task e funzioni lavorative. Si tratta di interventi da realizzare a vari livelli istituzionali e basati su iniziative ancorate a validi sistemi di protezione sociale.
La necessità di un coordinamento strategico all’altezza delle sfide
È quindi chiaro che occorre un coordinamento strategico all’altezza delle sfide e un presupposto essenziale per realizzarlo è l’impiego del potenziale trasformativo dell’IA da parte degli operatori pubblici. Come si vede, le sfide da affrontare sono molteplici e complesse, peraltro in una fase storica di alti deficit pubblici, che impongono una razionalizzazione non semplice in molti contesti, tra cui in primis quello italiano.
Favorire l’augmentation of labor
Un ultimo spunto di riflessione concerne la necessità di invertire la tendenza verso la sostituzione del lavoro per favorire invece l’augmentation of labor. Brollo et al. (2024) colgono un dato molto importante: gli incentivi predominanti negli ultimi decenni hanno avuto come criterio dominate quello di ridurre la pressione fiscale sugli investimenti sostitutivi del lavoro (Vedi Fig.5) e più in generale su capitale e rendite, mentre è aumentata quella sul lavoro (Fig.6)
Fig. 6
Fonte: Brollo et al. (2024).
I suggerimenti dell’IMF per riequilibrare la tassazione
Il Report dell’IMF avanza precisi suggerimenti per riequilibrare la tassazione: 1) aumento dell’imposta sul reddito delle società. 2) Efficace tassazione delle rendite da monopolio. 3) Aumento dell’imposizione fiscale sui redditi da capitale, spesso tassati meno (anche in Italia) rispetto ad altre forme di redditi da capitale. 4) Rafforzamento delle misure anti evasione a livello nazionale e internazionale.
Conclusioni
Perseguire questi obiettivi non sarà semplice, ma è essenziale per acquisire risorse, dirette a mitigare i rischi socio-economici dell’attuale traiettoria dell’IA e soprattutto a favorire “a fundamental reorientation of the industry, including perhaps a major change in the architecture of the most common generative AI models, such as the LLMs, in order to focus on reliable information that can increase the marginal productivity of different kinds of workers, rather than prioritizing the development of general human-like conversational tools” (Acemoglu, 2024: 49).
Bibliografia
Acemoglu D., Restrepo P., 2018, The Race between Man and Machine: Implications of Technology for Growth, Factor Shares, and Employment, American Economic Review, 2018, 108 (6), 1488–1542.
Acemoglu D., Restrepo P. 2019, Artificial Intelligence, Automation, and Work, The Economics of Artificial Intelligence: An Agenda, pp. 197–236. Edited by Ajay Agrawal, Joshua Gans and Avi Goldfarb. Chicago, USA: University of Chicago Press.
Acemoglu D., Restrepo P., 2022, Tasks, Automation, and the Rise in US Wage Inequality, Econometrica, 90 (5): 1973–2016.
Acemoglu D., Autor D.H., Johnson S., 2023. Can We Have Pro-worker AI?: Choosing a Path of Machines in Service of Minds. CEPR Policy Insight 123, Centre for Economic Policy Research, London.
Acemoglu D., 2024, The Simple Macroeconomics of AI, NBER Working Papers Series http://www.nber.org/papers/w32487.
Acemoglu D. 2023, The End of Democratic Capitalism? How Inequality and Insecurity Fueled a Crisis in the West, Foreign Affairs, Ju/August, Vol. 102, Issue 4: 172-180.
Acton M., Megaw N., 2024, Nvidia overtakes Apple as its market capitalization surpasses $3tn, 6 June.
Bradshaw T., Murgi M., 2023, How Microsoft’s multibillion alliance with OpenAI really works, Financial Times, 15 December.
Brynjolfsson E., 2022, The Turing Trap The Promise & Peril of Human-Like AI, Daedalus, 151: 272-297.
Brynjolfsson E., Li D., Raymond L.R., 2023, Generative AI at Work, Technical Report, National Bureau of Economic Research Working Paper: 31161.
Bursztyn L. et al., 2023, When Product Markets Become Collective Traps: The Case of Social Media, Technical Report, National Bureau of Economic Research Working Paper: 31771.
CNBC, 16-01-2024, OpenAI’s Sam Altman says human-level AI is coming but will change world much less than we think.
Criddle C., Espinoza J., 2024, OpenAI expands lobbying tean to influence regulation, Financial Times, 13 June.
Eloundou T. et al, 2023, GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models, Technical Report, arXiv.
CEO (Corporate Europe Observatory and LobbyControl e.V), 2021, The lobby network – Big Tech’s web of influence in the EU, Brussels and Cologne, August.
Gartner, 2023a, Gartner Places Generative AI on the Peak of Inflated Expectations on the 2023 Hype Cycle for Emerging Technologies. 16 August.
Gartner, 2023b, Gartner Forecasts Worldwide IT Spending to Grow 8% in 2024, 18 October.
Gartner, 2024, Gartner Survey Finds Generative AI Is Now the Most Frequently Deployed AI Solution in Organizations, 7 May.
Gerogieva K., 13-01-2024, AI Will Transform the Global Economy. Let’s Make Sure It Benefits Humanity, IMF Blog.
Goldman Sachs, 2023, Generative AI: Hype or Truly Transformative?
Hammond G. Hodgson C., 2024, Amazon writes its largest venture cheque yet for AI start-up Amthropic, 27 March.
Heath R., 2023, Companies struggle to deploy AI due to high costs and confusion, Axios.
Hulten C. R, 1978, Growth Accounting with Intermediate Inputs, The Review of Economic Studies, 1978, 45 (3), 511–518.
IEA (International Energy Agency), 2024, Electricity 2024. Analysis and forecast to 2026.
Brollo F. et al., 2024, Broadening the Gains from Generative AI: The Role of Fiscal Policies, IMF Staff Disucssion Notes, June.
Janeway W., 27-07- 2024, Productive bubbles, NOEMA.
Morris S., 2024, Big Tech’s AI dealmaking needs ‘urgent’ scrutiny, says US antitrust enforce, Financial Times, 6 June.
LombardiM., 2022, Intelligenza Artificiale e lavoro: le dinamiche più diffuse, gli effetti, come agire, Agenda Digitale, 11 Marzo.
Osman J., 2024, Big Tech’s Overpowering Influence: Risks To Markets An Your Money, Forbes, 30 June.
Pethokoukis J., 5-06-2024, AI’s Economic Potential: Goldman Sachs Responds to Daron Acemoglu, American Enterprise Institute.
Pitchbook (by J. Robbins), 30-05-2024, Generative AI seed funding drops 76% as investors take wait-and-see approach.
Prakash P., 2023, Alphabet CEO Sundar Pichai says that A.I. could be ‘more profound’ than both fire and electricity—but he’s been saying the same thing for years, Fortune 17 April.
S&P Global Marketing Report, 2023,
Svanberg M. et al., 2024, Beyond AI Exposure: Which Tasks are Cost-Effective to Automate with Computer Vision?, MIT Working Paper.
The Economist, 2024a, Big tech’s grab AI power grab, 5 May.
The Economist, 2024b, Is artificial intelligence making big tech too big
Varadi M. et al., 2024, AlphaFold Protein Structure Database in 2024: providing structure coverage for over 214 million protein sequences, Nucleic Acids Research, 52, D368–D375.
Verdegem P., 2024, Dismantling AI capitalism: the commons as an alternative to the power concentration of Big Tech, AI & Society, 727-737.
Waters R., 2023, The AI revolution’s first year: has anything changed?, Financial Times, 29 December.
- Il riferimento è all’ubiquitous and pervasive computing, espressione che sintetizza l’inarrestabile processo diffusivo di dispositivi computazionali, che incessantemente processano informazioni concernenti i processi fisici, economici e sociali che si svolgono sull’intero Pianeta-terra. ↑
- Attività automatizzabili, secondo Acemoglu, sono funzioni impiegatizie di medio livello, sintesi di testi, classificazione di dati, individuazione sofisticata di pattern, computer vision. ↑
- Quali robotica attrezzature manifatturiere tecnologicamente avanzate, sistemi di software. [Sia lecito, però, nutrire qualche dubbio a riguardo]. ↑
- AlphaFold, creato da Google DeepMind, è un sistema di IA generativa in grado di predire un sotto-spazio rilevante (214 milioni di sequenze) dell’enorme spazio delle sequenze proteiche possibili sulla base delle sequenze di amminoacidi. ↑
- Il riferimento è alla disinformazione e alla misinformation, alla pubblicità ingannevole e alla funzione dei social nel creare dipendenza, agli attacchi cyber (Acemoglu, 2024: 5), con riferimento alle stime contenute in Bursztyn L. et al., 2023). ↑
- Il nucleo teorico ed operativo dell’analisi è esplicitato in riferimento al teorema di Hulten (1978) (Acemoglu: 2024: 13-15). ↑
- Ricordiamo che OpenAI ha rilasciato ChatGPT nel 2022 e ChatGPT-4 nel Novembre 2023. ↑
- Su questo tema e sulle difficoltà odierne della GenAI torneremo in un prossimo contributo. ↑
- Non approfondiamo in queste sede un problema rilevante: il consumo di energia dei data centers è enorme e potrebbe nel 2026 essere il doppio di quello rilevato nel 2022, da 400 a 800 terawatt l’ora (IEA, 2024). Analogo andamento (raddoppio) viene stimato per l’energia consumata in relazione alle criptovalute. ↑
- Secondo recenti notizie di stampa, Sam Altman, CEO di OpenAI, avrebbe proposto di trasformarla in società con scopo di lucro. Per un’analisi della complessa struttura proprietaria di OpenAI si veda Bradshow e Murgi (2023). ↑
- In giugno Nvidia ha superato in valore di mercato di 3trilioni, ponendosi al di sopra di Apple come seconda società la mondo, dopo Microsoft. ↑
- Su questi temi e le implicazioni economiche del Test di Turing si veda Lombardi (2022). ↑