A oltre sei mesi dalla presentazione di ChatGPT da parte di OpenAI, la cosiddetta generative AI – l’intelligenza artificiale in grado di generare testi, immagini e modelli video e audio, che promette (per bocca di chi l’ha messa a punto e di chi, come le big tech, ne ha favorito e finanziato lo sviluppo) di cambiare tutto nell’economia e nella nostra vita – è al centro del dibattito internazionale da una molteplicità di punti di vista.
Lo dimostra, anche, questo insieme di titoli di articoli, usciti con una sola eccezione nelle ultime due settimane:
- “Bollino UE per l’intelligenza artificiale – Jourova, vicepresidente della Commissione: segnalare agli utenti i contenuti” (CdS-Corriere della Sera, 6/6/2023). “
- I carabinieri informatici: “L’intelligenza artificiale? Trova i profili criminali” – Gli analisti del ROS: una nuova frontiera per le indagini” (CdS, 5/6).
- “UK’s antitrust watchdog announces initial review of generative AI” (TechCrunch, 4/6).
- “The AI boom has turbocharged Nvidia’s fortunes. Can it hold its position? Competition and regulation may pose a threat—but only eventually” (The Economist, 1/6).
- “iPhone maker Foxconn follows Nvidia with forecast for AI sales boost: Apple’s largest manufacturer says demand for servers needed to run ChatGPT-like services will double this year” (FT-Financial Times, 31/5).
- “Nvidia hits $1tn market cap as chipmaker rides AI wave: Silicon Valley company joins elite group of US-listed companies including Apple, Microsoft, Amazon and Alphabet” (FT, 30/5).
- “A.I. Poses ‘Risk of Extinction,’ Industry Leaders Warn: Leaders from OpenAI, Google DeepMind, Anthropic and other A.I. labs warn that future systems could be as deadly as pandemics and nuclear weapons.” (NYT-The New York Times, 30/5).
- “WPP teams up with Nvidia to use generative AI in advertising. Technology platform will drastically speed up production of bespoke content for clients.” (FT, 29/5).
- “OpenAI warns over split with Europe as regulation advances. ChatGPT maker’s chief Sam Altman voices ‘many concerns’ over bloc’s planned legislation.” (FT, 25/5).
- “Microsoft Calls for A.I. Rules to Minimize the Technology’s Risks: Its president, Brad Smith, said companies needed to “step up” and governments needed to “move faster” as artificial intelligence progressed.” (NYT, 25/5). “
- Grimes Invited Anyone to Make A.I. Grimes Songs. The producer and pop singer has “open-sourced” her voice using new A.I. tools” (DNYUZ, 24/5).
- “The AI revolution already transforming education: Schools and universities are using ChatGPT in the classroom, but will it devalue the fundamentals of learning? (FT, 21/5).
- “Lina Khan: We Must Regulate A.I. Here’s How.” (NYT, 3/5).
Proviamo allora a focalizzarci su tre dei molteplici punti di vista sull’IA generativa, interagenti fra loro.
Fig. 1 Fig. 2
Figg. 3 e 4 – Le imprese che forniscono “pale e picconi” sono quelle che hanno goduto della maggiore crescita sul mercato azionario, come mostra l’AI “picks and shovels” index messo a punto da The Economist, come somma non pesata di 32 imprese della filiera a monte; Nvidia è stata quella che è cresciuta di più, toccando il trilione di $ di capitalizzazione, superando il picco raggiunto nella precedente corsa all’oro, quando i suoi chip erano diventati indispensabili per i miners di cryptovalute
Le possibili applicazioni e la valenza economica e strategica della generative AI
Le possibili applicazioni e la valenza economica e strategica della generative AI, prescindendo dai breakthrough che potrebbero cambiare radicalmente le carte in tavola (così come è accaduto con il lancio di ChatGPT), e le scommesse del mondo finanziario su chi trarrà i maggiori vantaggi da essa, nel breve-medio termine e in prospettiva, fra:
- chi eroga i servizi che permettono la costruzione e l’utilizzo dei modelli AI, quali ad esempio Amazon, Microsoft e Alphabet-Google che rendono disponibile la potenza di calcolo indispensabile nelle loro potentissime infrastrutture cloud e stimolano i produttori di app a mettere a punto servizi complementari, quale Meta che ha scelto la strada dell’open-source, o quali ovviamente OpenAI (ampiamente sostenuta da Microsoft) ma anche Anthropic (sostenuta da Google) e le altre startup-unicorni elencate nella Fig. 2;
- chi fa parte della lunga filiera a monte – di quelle imprese che spesso vengono assimilate ai fornitori di picconi e di pale (picks and shovels) durante la corsa all’oro in California di metà ‘800 (Figg. 1 e 3), che si arricchirono a prescindere dal successo di chi acquistava da loro gli attrezzi indispensabili per la ricerca) – a partire da una impresa come Nvidia (Fig. 4), che produce i chip più efficienti per l’AI e che ha toccato recentemente il trilione di dollari di capitalizzazione, per proseguire con una serie di altre imprese – quali Foxconn per i server – che contribuiscono alla messa a punto delle infrastrutture cloud;
- chi punta a sfruttare la generative AI per migliorare le performance dei propri servizi e/o metterne a punto di nuovi: quali ancora le big five, per i social network e i servizi di search, ecommerce, streaming, ecc.; quale WPP nell’advertising, di cui è numero uno al mondo, che ha avviato una cooperazione con Nvidia; quali i nostri carabinieri informatici, per rendere più efficaci e veloci le loro indagini; quale (il caso è particolarmente curioso) la nota produttrice e cantante pop statunitense Grimes, che ha reso del tutto disponibile – “open-sourced” – la sua voce per la produzione con l’ AI di nuovi brani musicali che la vedano protagonista, con un accordo sulla ripartizione degli utili.
I danni di una diffusione ampia e incontrollata della generative AI
I danni che una diffusione ampia e incontrollata della generative AI potrebbe comportare (una lista ovviamente solo parzialmente condivisa, date le differenze fra i diversi Paesi e le diverse componenti delle società nei livelli di comprensione della tecnologia stessa, negli obiettivi alla base dei suoi utilizzi, nelle sensibilità e nei valori comuni), di natura diversa ma in parte interagenti fra loro:
- violazione della proprietà intellettuale: un tema di natura prettamente economica, non facile da risolvere se non con accordi a priori che definiscano (come nel caso della cantante pop Grimes) a quali condizioni il materiale proprietario possa essere fatto digerire al sistema di messa a punto del modello AI
- violazione della privacy: un tema con connotati sociali almeno altrettanto importanti di quelli economici, che richiede soprattutto un controllo ex post (come nel caso dei social network) e su cui è aperto il dibattito sull’attribuzione di responsabilità nel caso di violazione
- errori sistematici di valutazione (in fase di selezione del personale da assumere, di concessioni di mutui, ecc.), diffusione di disinformazioni, incitazioni all’odio razziale, ecc., come conseguenza di algorithmic bias dovuti al tipo di informazioni fatte digerire al sistema di messa a punto del modello AI.
Come visto nel titolo di uno degli articoli citati in precedenza, i leader delle imprese più impegnate nell’AI – tra cui in prima linea OpenAI, Google DeepMind e Anthropic – hanno addirittura recentemente parlato del rischio di estinzione della razza umana, analogamente a quanto potrebbe accadere con una guerra nucleare o una violenta pandemia, se non vengono rapidamente introdotti meccanismi sostanziali di controllo (quali l’istituzione di una authority mondiale): destando qualche perplessità negli osservatori, dal momento che coloro che richiedono i controlli sono gli stessi che stanno portando avanti le sperimentazioni più avanzate; facendo nascere il sospetto che il loro desiderio sia quello di arrivare a una sorta di trattato di non proliferazione, come nell’ambito nucleare, che costituisca una barriera all’entrata di nuovi soggetti; o che essi, come sostiene Bloomberg Technology, vogliano – parlando addirittura del rischio di estinzione della razza umana – distogliere l’attenzione dai danni correnti sopra citati. Appare almeno curioso anche il fatto che il co-fondatore e CEO di OpenAI, Sam Altman, nello stesso momento in cui invoca il controllo pubblico, minacci l’UE (si veda l’articolo citato) di negare l’accesso degli europei a ChatGPT se la regolamentazione sarà troppo dura.
Ci sono poi altri due aspetti che possono essere visti come problematici, anche se le opinioni a riguardo sono piuttosto diverse:
- l’impatto sulle professioni e sui mestieri, molto differenziato ma in taluni comparti previsto molto pesante, che può creare disoccupazione e mismatch fra domanda e offerta di competenze e di posizioni lavorative soprattutto nel breve-medio termine, come dichiarato dal Fondo monetario internazionale qualche giorno fa al Financial Times (dice che non è scontato si creino altri lavori in altri settori a sostituire quelli automatizzati, lo stesso problema c’è stato nella precedente ondata di automazione in fabbrica); mentre in una prospettiva temporale più lunga ci potrebbe essere addirittura un impatto positivo, se – come solitamente accaduto nel passato con le grandi innovazioni – nasceranno nuove attività in ambiti più o meno lontani;
- la concentrazione del potere nelle mani di un numero molto ristretto di imprese, se saranno le big tech – per le risorse umane, infrastrutturali e finanziarie di cui dispongono – a trarre i maggiori vantaggi dallo sviluppo della generative AI: l’incubo di Lina Khan (chair della Federal Trade Commission, una delle due authority antitrust statunitensi), che da sempre le vorrebbe smembrare, e di Thierry Breton (commissario UE per il mercato interno), che si confronta con la quasi totale assenza di imprese europee in questo ambito. Un timore che ricorre tra gli esperti è anche che la regolamentazione possa avere l’effetto perverso di favorire le big tech (che hanno risorse per la compliance e che hanno già fatto il training degli algoritmi, aspetto che in futuro per nuovi entranti può essere più soggetto a regolazione). Si noti che è un punto affrontato dalle attuali regole europee che impongono obblighi ai gate keeper, ossia ai big del settore.
L’impatto sull’occupazione
Per quanto riguarda l’impatto sull’occupazione, io non credo che esso possa essere una buona ragione per frenare l’innovazione, sempre che la generative AI si dimostri una tecnologia efficace e sia in grado di correggere i suoi punti di debolezza. L’UE, piuttosto, dovrebbe dedicare molte più risorse allo sviluppo delle tecnologie digitali e far crescere suoi campioni in grado di fronteggiare quelli statunitensi e cinesi.
È significativo a questo proposito che mentre le imprese statunitensi occupano (Tab. 1) otto dei primi dieci posti nella classifica mondiale per capitalizzazione e otto delle prime dieci imprese, inclusa Tesla, sono qualificabili come tech, l’UE vede come sua prima impresa in classifica (al tredicesimo posto) LVMH – leader mondiale nella moda con 436,6 miliardi di $ di capitalizzazione – e vede solamente al trentunesimo posto la prima impresa tech, l’olandese ASML (285 miliardi), ancorché leader mondiale nella litografia per il manufacturing dei chip più avanzati.
Tab. 1 – Le 10 top imprese al mondo per capitalizzazione [dati companiesmarketcap.com relativi a inizio giugno 2023]
Per quanto riguarda il tema della concentrazione, molto dipenderà dal successo o meno delle iniziative in atto di sviluppo di modelli AI di dimensioni minori a quelle di ChatGPT di OpenAI o di Bard di Google, in grado quindi – se la qualità sarà sufficientemente elevata – di sfuggire alle barriere all’entrata (legate in primo luogo alla potenza di calcolo tanto più elevata quanto maggiore è la dimensione dei modelli stessi). La possibilità di costruire tali modelli sarebbe funzionale anche al loro utilizzo sugli smartphone.
Possibili obiettivi e strumenti di regolamentazione: aspetti problematici e limiti
La varietà dei danni – o presunti tali – che una diffusione ampia e incontrollata della generative AI potrebbe comportare fa capire come anche gli strumenti per una adeguata regolamentazione possono essere molto variegati nella tipologia, nella intensità e negli obiettivi che essi si propongono di conseguire. Non entrerò nei dettagli (di alcuni ho fatto cenno in precedenza), ma parlerò di due aspetti più generali.
Il primo aspetto, che a quanto risulta sta dividendo in due fronti contrapposti l’amministrazione Biden, è relativo al rischio che un eccesso di regolamentazione ostacoli l’innovazione, in un contesto in cui la tecnologia è ancora lontana dalla maturità e in cui il dominio nell’AI è visto come un fattore di grandissima rilevanza nel confronto in atto fra le due superpotenze (da cui il blocco all’export in Cina dei chip più avanzati).
Il secondo aspetto riguarda la quasi impossibilità di concordare le regole su scala globale, o anche solo di macroaree:
- per le forti tensioni geopolitiche in atto, di cui si è fatto appena cenno;
- per le differenze nei valori, in particolare per quanto riguarda l’utilizzo dell’AI (a partire dal riconoscimento facciale) ai fini del controllo sociale, fra Paesi democratici e Paesi autoritari;
- per i diversi interessi, fra chi come gli US dispone delle imprese dominanti e chi come l’UE non ne dispone, nel disciplinare i comportamenti delle imprese stesse;
- per la voglia crescente delle authority antitrust, piuttosto che di quelle a difesa della privacy, meno rilevanti, di affermare la loro esistenza: è il caso dell’antitrust inglese, rinato dopo la Brexit, che non perde occasioni per differenziare il suo comportamento rispetto a quello UE; è stato il caso dell’authority per la privacy italiana, che ha voluto il suo momento di gloria bandendo per un mese – unica al mondo – ChatGPT dall’Italia; è stato recentemente il caso della Australia’s Competition and Consumer Commission, nei riguardi dei principali social network.
La mancanza di regole su scala globale rappresenta anche peraltro un grosso problema per le imprese multinazionali, e per le big tech in primo luogo, che potrebbero trovarsi costrette a ritornare al ruolo di multilocali, come prima che iniziasse il processo di globalizzazione con il tentativo di creare un grande mercato aperto: un grosso problema perché la diversità delle regole, minando le economie di scala, minaccia la loro profittabilità e la loro capitalizzazione.