La corsa verso l’Intelligenza Artificiale Generale (AGI) sta sollevando interrogativi cruciali riguardo ai costi economici, sociali e ambientali che questa ricerca comporta. L’evento-shock del licenziamento e successiva riassunzione di Sam Altman, CEO di OpenAI, ha messo in luce le tensioni interne e le preoccupazioni legate allo sviluppo di tecnologie potenzialmente pericolose per l’umanità.
La struttura societaria unica di OpenAI, la visione ambiziosa di Altman verso l’AGI, e le recenti dimostrazioni di capacità inaspettate da parte dei Large Language Models (LLMs) alimentano un dibattito sull’accelerazione tecnologica e i suoi rischi. Critiche e preoccupazioni emergono anche dal fronte scientifico e ambientale, evidenziando la necessità di un approccio più cauto e regolamentato nello sviluppo dell’AI.
La “corsa agli armamenti” nell’AI non solo pone sfide tecniche e etiche, ma solleva anche questioni di sostenibilità ambientale legate al consumo energetico e alle risorse necessarie. In questo contesto di intensa competizione e incertezza, emerge l’urgente necessità di una riflessione collettiva e di azioni concrete per guidare lo sviluppo dell’AI in modo responsabile e sostenibile, al fine di minimizzare i rischi e massimizzare i benefici per l’umanità. Priorità evidenziate anche nel recente Report Gladstone che delinea l’impatto della Gen AI con una visione lucida e stimolante, proponendo un piano d’azione che affronta le sfide emergenti e traccia percorsi per la sua implementazione responsabile.
Ma andiamo per gradi, partendo dalle tensioni sotterranee emerse col licenziamento e la successiva riassunzione di Sam Altman.
L’evento-shock: licenziamento e riassunzione di Sam Altman
Il 17 novembre 2023 il mondo dell’Intelligenza Artificiale è sorpreso dall’annuncio che Sam Altman, CEO e co-fondatore di OpenAI, impresa leader nel campo della Generative Artificial Intelligence (d’ora in poi GenAI) e creatrice di CHatGPT-4, è licenziato dal Consiglio di Amministrazione (board of directors) a capo della società. Il giorno successivo si dimette Greg Brockman, co-fondatore e presidente della stessa società. Le cause dell’improvviso licenziamento, durato pochi giorni, sono da ricercare, secondo fonti consultate dall’agenzia Reuters (22-11-2023), in una lettera al board of directors da parte di un gruppo di ricercatori interni, i quali avvertivano dell’avvio di una potente tipologia di intelligenza artificiale, in grado di generare pericoli per l’umanità. La lettera ufficiale contiene la considerazione che “egli non è stato del tutto sincero nelle sue comunicazioni al board of directors, ostacolando così l’esercizio delle responsabilità” (trad. nostra). Il contenuto della missiva si aggiunge ad una serie di rilievi, effettuati nel corso del tempo dallo stesso board nei confronti di Altman per le sue intenzioni di commercializzare sistemi di AI senza appropriati controlli e strumenti di sicurezza. Immediatamente dopo l’annuncio sorprendente, 700 operatori di OpenAI hanno a loro volta inviato una lettera in cui dichiarano l’intenzione di dimettersi. A complicare la situazione, già confusa, interviene su “X” Satya Nadella, CEO di Microsoft, con la proposta ad Altman di lavorare con loro in una unità di ricerca, appositamente creata. Il colpo di scena finale è il reinserimento di entrambi i fuoriusciti, dal momento che iniziano a circolare voci in tal senso (Dietsch, 19-11-2023) già la domenica successiva alla notte del Giovedì, quando in un breve Goole meet Altman apprende che è in arrivo la comunicazione dell’allontanamento.
Il rientro di Altman e Brockman avviene dopo meno di una settimana, insieme ad una nuova composizione del board. Tutto bene, dunque?
“Una cosa mai vista” (Waters et al., 2023), che accade nell’impresa all’avanguardia della GenAI, non può essere interpretata riduttivamente in termini di divergenze di carattere tra forti personalità, mentre la mancanza di informazioni dettagliate su quello che accade in un’entità no-profit, quale è OpenAI, apre lo spazio per le ipotesi più fantasiose. Questo vale anche se analisti accreditati sono a conoscenza di almeno due notizie precise:
1) Altman ha avuto incontro con esponenti della Softbank, multinazionale finanziaria giapponese, e investitori del Medio Oriente in merito a progetti di investimento nella creazione di un’impresa per produrre microchip. Notizie non confermate indicano richieste fino a 100 miliardi di dollari (Moore, 29-11- 2023).
2) Prima dell’evento-shock, una lettera -non resa pubblica- di ricercatori dell’OpenAI avrebbe avvertito il board of directors circa i pericoli insiti nella commercializzazione di un nuovo sistema algoritmico, definito misteriosamente Q* (pronuncia Q-stella), risultato di una svolta nella GenAI (Victor e Efrati, 2023), perché in grado risolvere problemi matematici finora non alla portata dei sistemi di IA (Heikkilä, 23-11-2023)[1]. Le dimissioni di 3 componenti, già prima degli eventi eclatanti, sono il segnale di una situazione burrascosa.
Eventi così contraddittori e repentini generano una serie di interrogativi. Cerchiamo di rispondere ad un primo quesito: com’è possibile che una vicenda così peculiare avvenga in una delle realtà tecnico-scientifiche di punta a livello mondiale? Successivamente cercheremo di riflettere su elementi utili a comprendere una serie di interrogativi di fondo.
Il modello societario di OpenAI
Il provvisorio siluramento di Altman è reso possibile dalla particolare struttura societaria di OpenAI, che ha una configurazione societaria ibrida, definita “unica” (Goswami, 2023) e bizzarra” (Knight e Levy, 2023), in quanto è una società “duale”. Creata nel 2015 da Altman,-Musk e altri investitori come società no profit, nel 2019 i fondatori hanno ristrutturato la società, associando all’organizzazione no profit (OpenAI 501c3 Inc., sul piano legale), l’entità ausiliaria OpenAI Global, dove Microsoft investe miliardi di dollari, ma essa ha un limite alla quantità di profitto che può conseguire[2]. È una sorta di modello “a cascata” (Goswami, 2023), con al vertice il board of directors, la OpenAI Global alle base, e tutto il resto nel mezzo Fig. 1
Fonte: OpenAI, https://openai.com/our-structure. Update June 28,2023
Lo statuto della OpenAI assegna al Board, i cui componenti sono elettivi, il potere di scegliere e rimuovere i direttori, nonché di auto-determinarne il numero, e le decisioni prese a maggioranza possono avviare atti senza preventive comunicazioni ad alcuno. Si spiega così, infatti, la decisione del licenziamento senza che il presidente Brockman fosse avvertito, come pure varie delibere di riduzione del numero dei componenti dal 2016 in poi, in seguito a conflitti di interessi e a dispute con Elon Musk.
Queste “stranezze” societarie hanno alla base precise ragioni. In primis, come recita lo Statuto di OpenAI, l’obiettivo fondamentale è quello di ““ensure that safe artificial general intelligence is developed and benefits all of humanity.” In secondo luogo, l’entità ausiliaria viene creata con il fine di attrarre i migliori talenti per sviluppare sistemi di AI nella direzione dell’AGI, con regole sui guadagni idonee a preservare il perseguimento della missione basilare e al tempo stesso consentire a OpenAI di essere competitiva rispetto ai laboratori di AI delle grandi società esistenti.
Sam Altman: una breve storia personale e l’attenzione crescente verso l’AGI
Sam Altman è una personalità molto interessante, con alcune esperienze non brillanti e altre di successo, capace di suscitare impressioni contrastanti, e dotato di alcune peculiarità: la propensione costante a fondare startup in vari tipi di attività economiche e una spontanea tendenza ad essere una figura in grado di polarizzare le reazioni degli osservatori dei processi innovativi. In una prima fase della sua vita abbandona la Stanford University, spinto dall’idea di creare una start-up, che però fallisce dopo poco tempo (Pressform, 2024). Altman torna allora a Stanford per laurearsi e subito dopo fonda un’altra start-up (Loopt), che lavora sui social per consentire agli amici di scambiarsi informazioni sui posti di ritrovo, grazie anche all’integrazione con le piattaforme di Tweetter e Facebook. L’impresa non incontra il successo sperato ed è costretta a chiudere dopo sette anni, ma non è del tutto fallimentare per Altman, che riceve 45milioni di dollari dalla Green Dot Corporation per rilevare la Loopt. Negli anni successivi Altman diviene bersaglio di polemiche per le sue posizioni da “bastian contrario”: 1) paragona l’atmosfera di censura, prevalente nell’ambiente culturale di San Francisco, al clima ostile sperimentato da Galileo e addirittura tweetta che la situazione nella baia di San Francisco è peggiore del contesto repressivo cinese. 2) Pubblica post contro Trump, mentre uno dei suoi colleghi e co-fondatori di OpenAI, cioè Peter Theil (fondatore di Pay Pal) è uno dei sostenitori del magnate americano.
Contrariamente a quello che si può pensare, questo periodo di controversie non nuoce alla sua reputazione, anzi avviene il contrario: egli vede rafforzata la sua posizione come vero e proprio influencer nel mondo degli affari. È così che nel 2011 entra in Y combinator, un acceleratore di startup, di cui è CEO dal 2014 al 2019, quando assume la carica di CEO in OpenAI. L’esperienza di Y Combinator riceve giudizi contrastanti, ma un dato è certo: il numero delle start up è quasi triplicato durante la sua permanenza (da 67 a 205 (TechCrunch, 9-3-2019), con un aumento sostanziale degli investitori e dei loro profitti. Altman lascia Y Combinator riaffermando i principi che ispirano sempre la sua attività e l’impronta che cerca di dare alle imprese cui partecipa: “The world is shaped by people with intelligence, drive and vision. At YC, we’ve learned a lot about cultivating a network of such people — and we believe that having a strong network is such a force multiplier that it is one of the most important assets for anyone who wants to have a significant impact on the world” (penultimo post sul sito di YC, 29-1-2019).
Da questo breve excursus si evince chiaramente la forte ambizione personale di Altman e la consapevolezza di una missione da intraprendere insieme con i migliori talenti da attrarre, quindi la tendenza ad avviare iniziative di grande respiro strategico. Per sviluppare ulteriormente queste prime riflessioni è opportuno introdurre quanto il Nostro ha scritto sul sito web personale nel 2015 (part 1-2, accesso il 5-3-2024), dove sono esposte alcune importanti considerazioni, che possono aiutare a comprendere quello che sta accadendo oggi. È innanzitutto rilevante l’affermazione che la superhuman machine intelligence (SMI) è la più grande minaccia per l’umanità ed è “estremamente difficile credere che non sarà prima o poi realizzata” (trad. nostra)[3]. La dinamica esponenziale negli ultimi 40 anni induce a ritenere possibile questo evento, anche se è al momento molto difficile stimare quanto sia vicino. Il fatto, poi, che l’attuale machine intelligence non sia in grado di produrre alcunché di simile alla creatività induce molti studiosi a ritenere la SMI sia qualcosa di molto lontano. Non si può però escludere che l’intelligenza creativa umana sia “an emergent property of a small number of algorithms operating with a lot of compute power” e al tempo stesso se definiamo la “ current machine intelligence as cheap tricks, …. perhaps our own intelligence is just the emergent combination of a bunch of cheap tricks”. Queste e altre considerazioni, a cui rinviamo, portano Altman a teorizzare la necessità di una regolazione pubblica internazionale degli sviluppi della SMI, per cui sono anche indicati criteri strategico-operativi: 1) un framework per il monitoraggio. 2) Software di salvaguardia all’altezza delle sfide. 3) Controlli reciproci da parte di chi sviluppa la SMI secondo i principi di Asimov. 4) Aumento della spesa in R&S per le entità che studiano strumenti di difesa dai pericoli. 5) Framework di lungo termine per studiare le modalità di interazione feconda tra umani e SMI.
Queste sono le idee esposte nel 2015, ma il quadro cambia se leggiamo la trascrizione di ciò che ha detto il giorno prima del suo licenziamento all’APEC CEO Summit 2023 (Bote 17-11-2024). Estraiamo tre punti salienti delle risposte di Altman a sollecitazioni di importanti interlocutori[4].: 1) stiamo lavorando alla tecnologia più trasformativa e benefica, che l’umanità ha mai inventato. Di fatto stiamo superando “il velo di ignoranza”, spingendo oltre la frontiera delle scoperte per ottenere qualcosa che caratterizza in modo indelebile la nostra vita. 2) C’è la percezione che qualcosa è “qualitativamente cambiata” e l’umanità ha collettivamente effettuato un balzo proprio quest’anno. “Another thing on the technology tree has been unlocked”…. “I think we’re on a path of self-destruction as species right now”. 3) Occorrono idee nuove e nuovi strumenti per contenere i potenziali effetti negativi, se vogliamo prosperare come specie nei prossimi decenni e secoli. 4) Il provvedimento emanato dal Presidente USA (The White House, 2023) è un buon inizio, ma occorrono nuovi mezzi di salvaguardia sui modelli di AI, senza pensare ai vincoli della regolamentazione e al blocco dei modelli open source e delle piccole società. 4) Non c’è bisogno di una regolamentazione “pesante”, bensì di una “collective global supervision of that and some collective decision making”.
Tutto questo perché la GenAI ha sviluppato capacità inattese, effettuando un inatteso balzo in avanti. Queste affermazioni sembrano in parte convalidare quanto è enunciato all’inizio dell’anno scorso (OpenAI, 2023) in tre principi: “1. We want AGI to empower humanity to maximally flourish in the universe. We don’t expect the future to be an unqualified utopia, but we want to maximize the good and minimize the bad, and for AGI to be an amplifier of humanity. 2. We want the benefits of, access to, and governance of AGI to be widely and fairly shared. 3. We want to successfully navigate massive risks.”
Il perseguimento dell’AGI è elemento centrale dell’atto costitutivo di OpenAI, dove si afferma in modo inequivocabile che per AGI si intende “a highly autonomous system that outperforms humans at most economically valuable work. Such a system is excluded from IP licenses and other commercial terms with Microsoft, which only apply to pre-AGI technology.” Questo è il 5° principio base del modo di operare della struttura societaria, che ha come elemento importante una partnership strategica con Microsoft, il cui investimento in OpenAI ammonta a 10 miliardi di dollari (Bass, 10-1-2023). La somma si aggiunge alle risorse investite negli anni precedenti per coltivare “l’ambizione condivisa” “to responsibly advance cutting-edge AI research and democratize AI as a new technology platform” (Microsoft, 23-1-2023).
Agli inizi del Dicembre 2023 (Hope Global Forum, Atlanta) e a Davos (World Economic Forum), nel Gennaio 2024, Altman ha smorzato i toni circa il prossimo arrivo della SMI, la cui portata distruttiva del mondo attuale è stata troppo enfatizzata. Al momento l’AGI non c’è, anche se prima ha annunciato che potrebbe essere sviluppata nel “reasonable clos-ish future” (Sigalos e Brown, 16-1-2023; Goldman 17-1-2024), e comunque l’attuale AI sta generando disuguaglianze, perché è uno strumento con performance al di là delle attese.
Approfondiamo allora brevemente sia alcuni degli aspetti che vanno oltre le aspettative, sia gli sforzi verso ulteriori sviluppi.
Un orizzonte tecnico-scientifico in espansione accelerato verso l’indefinito
Un recente studio (Fung et al., 2024) espone dettagliatamente un esperimento con cui si dimostra come i Large Language Models (LLMs) stiano sviluppando capacità in modo autonomo. Ad esempio, un loro agente LLM è riuscito autonomamente, cioè senza feedback umani, a individuare vulnerabilità in siti web e li ha quindi hackerati.
Un editorialista del New York Times su temi tecnico-scientifici, Kevin Roose (11-11-2023) ha documentato come uno dei trend di sviluppo della GenAI, che si sta profilando, sia la creazione di agenti personalizzati, in grado di gestire le molteplici attività che una persona o un’organizzazione ha in programma e intende attuare. Per ora sono limitati all’esecuzione di compiti specifici, ma si prevede (sempre Altman e OpenAI) di offrire sul mercato chatbot “customizzati” capaci di svolgere compiti più complessi. Le dimostrazioni viste da Roose non sembrano particolarmente pericolose, perché basate su agenti finalizzati ad attività ben determinate, ma studiosi del Center for AI Safety (Hendrycks et al., 2023) non sono dello steso parere. Gli agenti autonomi, secondo la loro analisi, espone a 4 gruppi di “rischi catastrofici” quali: 1) usi malevoli e incontrollabili da parte di persone o gruppi per finalità di propaganda, sorveglianza, diffusione di epidemie e creazione dei più vari obiettivi dannosi. 2) Dinamica competitiva esasperata tre le imprese impegnate nell’AI, tale da generare una spirale senza limiti verso sistemi sempre più potenti, riducendo i controlli di sicurezza, fino allo sviluppo di forme di cyberwarfare basate su AI. 3) Rischi organizzativi, dal momento che le organizzazioni in competizione si possono esporre a rischi di incidenti catastrofici, essendo la priorità del profitto prevalente su finalità di security and safety. 4) Si può sviluppare una “rogue AI” che, sfuggita al controllo e sempre più potente, potrebbe dirottare le sue incrementate capacità di ottimizzazione degli obiettivi verso finalità di potere, inganno, resistenza alla chiusura.
È possibile che i rischi siano solo in parte fondati, ma è certo che la dinamica competitiva nella sfera dell’AI in una fase di accelerazione crescente, alla luce delle risorse dichiarate dalle entità impegnate. Ecco gli esempi più eclatanti.
In un Reel su Instagram (!) del 18 Gennaio scorso Mark Zuckerberg annuncia che Meta ha come obiettivo di lungo termine quello di sviluppare una open source general intelligence , ovviamente a diposizione e a beneficio di tutti, con l’aggiunta che la prossima generazione di servizi si avvarrà di AI basata su progressi in tema di “reasoning, planning, coding and other cognitive abilities”. A questo fine è necessario costruire una wordclass infrastruttura computazionale, attraverso l’impiego di “350k H100s by the end of this year –and overall almost 600k H100s equivalents of compute if you include other GPUs.”[5] Questo potente apparato di GPU (graphic processing unit) sarà a disposizione di FIAR e GenAI, due unità di ricerca di Google che svilupperanno una “full general intelligence”. È superfluo sottolineare che l’impiego di una tale mole di GPU implica la messa in opera di un’enorme potenza computazionale, in quanto le GPU consentono l’elaborazione in parallelo di funzioni matematiche con algoritmi potenziati di Deep learning.
Una visione incentrata sull’intensificazione della ricerca per raggiungere l’AGI è enunciata con forza da Demis Hassabis in un’intervista a Nilay Patel, direttore di The Verge (10-6-2023), nel corso della quale Hassabis spiega che uno dei principali motivi ispiratori di OpenMind, rimasto tale dopo l’acquisizione da parte di Google, è l’accelerazione della ricerca in tema di AGI e in generale d tutte le capacità cognitive umane, come anche di progetti come quello di AlphaFold[6].
Hassabis sottolinea anche che la traiettoria di ricerca richiede di scalare i sistemi di ingegneria e le idee esistenti, aumentando nel contempo gli investimenti in R&S e adottando una logica open source, come è stato fatto con AlphaFold. La dinamica competitiva tra i grandi player dell’AI induce tensione creativa nel tentativo da parte di ciascuno di anticipare gli altri e avere successo nel creare una “potentially transformative AI”. Ciò richiederebbe, però, che tutti i player si impegnassero a progettare contemporaneamente strumenti per la sicurezza dei sistemi di AI, perché c’è il rischio che, combinando differenti sistemi, possano emergere comportamenti imprevisti e pericolosi, specie se finiscono nelle mani attori malevoli[7].
Dagli elementi addotti finora emerge un contesto di forte tensione competitiva verso sistemi di AI con capacità cognitive generali, il che richiede un salto qualitativo in termini di apparati algoritmici e in primo luogo di infrastruttura computazionale. Non deve quindi sorprendere se OpenAI si appresta ad un’operazione tecno-economica di rilevanza globale. Secondo la reporter del Wall Street Journal Keach Hagey (2024) Sam Altman ha ampliato molto la strategia a cui si è accennato nel par. 1, dal momento che in recenti incontri con personalità mediorientali e giapponesi ha illustrato i fondamenti strategici di una visione a lungo termine, con richieste di 7 trilioni di dollari per espandere la capacità produttiva di microchip. Questi sono essenziali proprio per gli sviluppi ipotizzati dai global player dell’AI e per probabili aumenti delle richieste di microchip che Nvidia da sola non potrebbe soddisfare. Bisogna tenere presente che l’aumento del numero e della diffusione di LLMs già da metà 2023 ha generato la convinzione che NVIDIA, primo produttore di microchip al mondo per capitalizzazione di mercato (Fonte: STATISTA, accesso 9-2-2024) non sia in condizione di soddisfare una domanda crescente di GPU (Goldman, 3-8-2023, che contiene anche il calcolo dei fabbisogni di alcuni grandi player dell’AI). Se a questo si aggiunge poi lo scenario ipotizzato al World Government Summit da Jensen Huang, CEO di Nvidia: “Every Country Needs Sovereign AI” (Nvidia Blog, 20-2-2024, accesso 5-3-2024), si comprende come sia in pieno svolgimento una “corsa agli armamenti” verso un orizzonte indefinito di crescente potenza computazionale, per raggiungere una meta ignota.
Il quadro che risulta dall’analisi svolta è difatti inequivocabile. anche se gli attori principali sono consapevoli che l’AGI è qualcosa di non ben definito, di cui nessuno conosce né la scala temporale di realizzazione, né un modello teorico attendibile, in realtà è solo “un concetto astratto – un esperimento mentale” (Evans, 2023). Tuttavia questo esperimento mentale sta drenando una quantità enorme di risorse monetarie e anche naturali, come si vedrà tra breve, creando in ogni caso strumenti in grado di esercitare forme inusitate di orientamento e controllo della sfera informativo-digitale, che circonda e permea la sfera fisica terrestre, con al suo interno il mondo degli esseri viventi (Lombardi, 2021). È quindi in atto una “corsa agli armamenti” di cui è difficile vedere il punto di arrivo nel lungo periodo, mentre nel breve emergono asimmetrie cognitive, economiche, sociali, di potere (Lombardi, 2023).
Critici delle strategie di Sam Altman e dell’AGI
Prendiamo in esame le reazioni di alcuni eminenti computer scientist, autori di contributi con riflessioni interessanti.
Timnit Gebru, grande esperta di etica dell’AI, costretta a uscire da Google dopo la pubblicazione di un paper all’avanguardia in tema di discriminazione di genere e razziale dei sistemi di riconoscimento facciale commercializzati da imprese come IBM., Microsoft e altri (Buolamini e Gebru, 2018) ha messo in discussione, con un tweet caustico[8], la credibilità del documento con cui Open AI afferma di voler perseguire il beneficio per l’umanità.
Emily Bender, co-autrice di un paper in cui si definiscono gli LLMs “pappagalli stocastici”, a sua volta con un tweet a proposito dello stesso documento, ha stigmatizzato la convinzione degli autori di essere sulla strada di creare l’AGI e soprattutto la loro pretesa implicita di decidere quali sono “i benefici per l’umanità”.
Molto critici sulla traiettoria di accelerazione tecnico-scientifica, intrapresa da OpenAI-Google-Microsoft e gli altri grandi operatori, sono Robert Wright, esperto di computer science, e Gary Marcus.
Wright (17-2-24) si chiede innanzitutto se l’accelerazione evolutiva dell’AI sia nell’interesse dei 7,9 miliardi di persone che non sono Jensen Huang e Sam Altman. Solleva inoltre il problema relativo alla proliferazione di sistemi più potenti, di cui non esistono preventivi strumenti di controllo, per cui la prospettiva che entrino in possesso di una molteplicità di attori malevoli rende meno probabile lo scenario di una transizione non catastrofica. Wright solleva anche due punti a nostro avviso cruciali.
Il primo si riferisce a quanto affermato da Altman nel corso di un’intervista al Wall Street Journal il 18-10-2023 (https://www.wsj.com/video/ai-impact-on-the-future-of-work/), durante la quale Altman sottolinea che si profila un gap tra velocità di trasformazione tecnologica e i ritmi evolutivi della società, specie in tema di lavoro e di capacità delle persone di usare ChatGPT verso un futuro progressivo. Per inciso, OpenAI è a favore dell’Universal Basic Income (reddito di base universale), forse preludio di una società dove pochi svolgono funzioni elevate, mentre la completa automazione delle attività produttive lascia la maggioranza di persone inattive.
Il secondo è in riferimento ai contenuti di un paper (Sastry et al, che ha tra gli autori eminenti personalità nel campo dell’AI quali Joshua Bengio). Ebbene, in questo scritto si argomenta ampiamente come il “computer power, or compute” sia una leva decisiva per la governance dell’l’AI in assenza di specifici interventi pubblici[9]. Appare quindi evidente che i sempre più potenti microchip, sui quali puntano Nvidia e OpenAI, possono costituire una leva decisiva per il dominio nel mondo digitale[10].
Gary Marcus, nei suoi libri e sul suo blog (https://garymarcus.substack.com/), è un altro eminente critico sia della AI sub-simbolica, sia delle strategie in atto a proposito del “compute”. Tra i numerosi, interessanti, contributi scegliamo due più recenti (Marcus, 9-2-2024; 10-2-24), che analizzano questioni di fondo delle strategie dei protagonisti incentrate sullo scaling del “compute”., Nel primo egli solleva il fatto che vi sono altre priorità ineludibili. Innanzitutto gli LLMs si stanno rivelando in molti casi non all’altezza delle aspettative per le imprese e gli utenti in genere, a causa dei numerosi errori, delle “allucinazioni” in cui incorrono, delle false affermazioni con cui talvolta rispondono alle domande (prompt) degli utenti. Oltre all’alta probabilità che essi siano preda di attori maliziosi, una questione decisiva è quella relativa alle vulnerabilità in termini di sicurezza della stessa OpenAI, con prelievo di informazioni riservate degli utenti, oltre che stessa società, come è accaduto nel Febbraio 2023. Ulteriore dimostrazione di vulnerabilità è stata provata da Google DeepMind, dal momento che nel Dicembre scorso i suoi ricercatori hanno scoperto che ChatGPT è sensibile agli “incantamenti”, se sottoposto alla ripetizione esagerata di termini. Ad esempio, con sequenze di identiche di “poem, poem, poem” ChatGPT tramsette automaticamente dati personali completi. Nel Gennaio 2024 Anthropic (16-1-2024), società fondata da ex membri di OpenAI, ha dimostrato che gli LLMs sono vulnerabili ad attacchi di agenti artificiali silenti (sleeper) per anni, rivelando così informazioni riservate di qualsiasi natura (Ars Technica, 16-1-2024).
Una ulteriore e interessante riflessione di Marcus concerne la ricerca di 7 trilioni di dollari da parte di OpenAI per creare una infrastruttura computazionale, basata sulle nuove, sempre più potenti GPU. L’entità della cifra, superiore al PIL della Germania o del Giappone, potrebbe sconvolgere i mercati finanziari mondiali sia se soddisfatta, ritenuto evento improbabile, sia in caso di insuccesso, con effetti dirompenti di portata inimmaginabile. Come Marcus sottolinea nel secondo contributo (10-2-2024), l’ingente somma è 10 volte più grande della spesa per istruzione degli USA e 21 volte maggiore del costo di porre fine alla fame nel mondo. Se si pensa poi al rendimento in termini di profitto dell’investimento di 7 trilioni di dollari, anche se il profitto fosse un decimo delle risorse impiegate, è credibile la strategia esposta, anche alla luce delle precedenti esperienze di Sam Altman? Come non pensare, poi, agli ingenti rischi economici e finanziari nell’eventualità che un progetto così costoso incontri difficoltà di vario tipo? Le conseguenze potrebbero essere molto più devastanti della crisi del 2007-2008.
Esiste, però, un’altra grande questione, spesso trascurata, cioè i costi ambientali di un ipotetico investimento in una nuova e potente infrastruttura computazionale a livello globale.
I costi ambientali della nuova infrastruttura computazionale
Le GPU sono gli elementi fondamentali della ipotizzata accelerazione computazionale, ma richiedono rilevanti quantità di risorse ambientali, oltre quelle monetarie. Le GPU H100 di Nvdia consumano più energia di alcuni Paesi: ciascuna GPU consuma 700 watt di energia e le previsioni per il 2024 indicano una vendita di 3,5 milioni. La Schneider Electric stima (ottobre 2023) che le ordinarie applicazioni di AI consumino energia pari all’isola di Cipro. Secondo Paul Churnock, ingegnere del Datacenter Technical Governance and Strategy di Microsoft, le GPU di Nvidia’s H100 consumeranno più energia di tutte le famiglie di Phoenix, Arizona, alla fine del 2024 (Shilov (26-1-22023).
Sasha Luccioni, ricercatrice a Hugging Face, piattaforma franco-americana di una comunità di computer scientist, sintetizza nel seguente tweet le stime di una rilevante produzione nella filiera di produzione di Nvidia, ma al tempo stesso evidenzia la carenza di informazioni.
Il consumo destinato evidentemente ad aumentare se si realizzano i grandi investimenti per l’impiego dei microchip H100, ma le società leader dell’AI sono restie a fornire dati.
Non è solo l’elevato consumo di energia a suscitare interrogativi, perché l’utilizzo di microchip tradizionali e quelli nuovi richiede un grande consumo di acqua per contenere la temperatura dei server. A questo proposito un recente studio (Li et al. 2023) indica che l’addestramento di OpenAI GPT-3 ha richiesto l’uso di 700.000 litri di acqua “ma l’informazione è stata tenuta segreta” e nel 2027 la domanda globale di acqua dall’AI sarà più della metà del fabbisogno del Regno Unito.
Il Rapporto ambientale di Microsoft, relativo al periodo 2021-2022, espone il dato che il consumo di acqua è cresciuto del 34%, soprattutto in relazione alla GenAI e alla partnership con OpenAI, in particolare nella città di West Des Moins (Iowa), dove il clima relativamente fresco rende meno dispendioso il consumo energetico, ai fini del raffreddamento del supercomputer e delle altre attrezzature impiegate per addestrare i sistemi di software (Fortune, 9-9-2023). Sono quindi comprensibili le preoccupazioni della città dove sono impiantati i server, che hanno picchi elevati nell’utilizzo di acqua.
Nubi dense sullo scenario globale
Proprio mentre scrivevamo queste note è stato pubblicato un Report (Gladstone, 2024), commissionato dal Dipartimento di Stato USA[11] e redatto sulla base della consultazione di un centinaio di esperti di USA, Canada, Regno Unito (Gladstone, 2023). In esso si descrive uno scenario quasi drammatico per i prossimi cinque anni, dal momento che si profilano enormi rischi globali in conseguenza di alcuni passaggi cruciali nell’evoluzione della GenAI. Innanzitutto, dopo decenni in cui la ricerca si è incentrata sull’architettura dei sistemi di AI, dal 2010 in poi è prevalsa una novità, la cosiddetta scaling hypothesis (Branwen, 2020), secondo la quale le reti neurali (Deep Learning) mostrano nuove abilità quando assorbono più dati, impiegano maggiore compute, divengono più probabilistiche via via che i problemi diventano più difficili. OpenAI investe sulla base dell’ipotesi e produce il GPT-3 (Brown et al. 2020). Studiosi (Kaplan et al, 2020) argomentano che l’ordine di grandezza del set di addestramento, e del modello di elaborazione può portare all’individuazione di scaling laws, cioè leggi che all’aumentare di scala delle componenti i sistemi sono capaci di prestazioni impreviste. Ciò fonda strategie di investimento in miliardi di dollari, come nel caso di Google DeepMind, che aumenta enormemente il dataset di base e quindi la “corsa all’aumento di scala” diviene la “corsa agli armamenti”, con il GPT-4 e le sue performance, superiori a quelle umane in non poche sfere di attività. Si è quindi di fatto radicata la convinzione che il nesso dinamico tra aumento di scala e incremento delle abilità cognitive possa e debba essere perseguito al fine di arrivare prima degli altri, ma soprattutto si è auto-generata una forte pressione competitiva, orientata alla priorità del profitto e quindi all’incremento accelerato degli investimenti. Il Report Gladstone mette in rilievo una serie di rischi globali, che possono insorgere da questi sistemi di AI molto potenti. Sono analizzate soprattutto due tipologie. In primo luogo, il fatto che questi sistemi di AI costituiscono un potenziale di trasformazione in armi (weaponization), con un livello di minaccia tale da destabilizzare addirittura la sicurezza globale. Il 2024 potrebbe essere l’anno in cui “AGI development could arguably pose a greater threat to global safety and security than nuclear war” (Gladstone, 2024: 36, nota 16). I sistemi di AI esistenti e in preparazione possono costituire nuove categorie di strumenti analoghi a quelli di distruzione di massa e ad altri potenzialmente in grado di indurre rischi catastrofici. A questo riguardo ci si riferisce sia a tentativi i di sfruttare vulnerabilità dei sistemi di cybersecurity in modo distruttivo da parte di agenti artificiali manovrati da attori malevoli, sia a una serie di varie tipologie di minacce alla sicurezza da parte di attori “canaglia”, come negli esperimenti di laboratorio di OpenAI (14-2-2024). Sempre in tema di weaponization, il riferimento è alla guerra biologica e a campagne di disinformazione, atte a generare eventi disastrosi di varia natura (politici, sociali, economici), con effetti molto difficili da prevedere, misurare e controllare.
Per quanto attiene alla seconda categoria di rischi, essa riguarda la perdita di controllo sui nuovi sistemi di AI e il fallimento delle strategie di alignment dell’AGI. Si tratta innanzitutto del problema di sistemi di AI che possono autonomizzarsi ed assumere power-seeking behavior, anche se privi di consapevolezza e “sentience”. Essendo sempre più potenti e incentrati su comportamenti esclusivamente ottimizzanti, gli agenti artificiali potrebbero ingenerare un alignment problem, cioè comportamenti non coerenti con gli obiettivi degli sviluppatori, generando quindi esiti catastrofici. Non è assurdo ipotizzare che divengano capaci di prevenire strategie contro la loro chiusura, disegni di controllo dell’ambiente in cui sono inseriti e probabilmente anche sottrarsi esplicitamente al controllo, dati gli obiettivi che perseguono, le abilità crescenti e superiori a quelle umane, che acquisiscono via via. Si potrebbe appunto verificare il paradosso di strumenti in grado di apportare grandi benefici per l’umanità, ma che diventano generatori di eventi e processi disastrosi e incontrollabili.
Il documento indica altre cinque categorie di rischio, ma si sofferma su queste due per elaborare un Piano di Azione molto complesso, di cui esponiamo in questa sede solo alcuni principi fondamentali:
1) è fondamentale l’intervento strategico e tecnico-scientifico degli Stati, sulla base di elevati investimenti.
2) L’azione richiede uno stretto coordinamento internazionale, alla stessa stregua, se non superiore, di quello operante in materia di controllo del nucleare.
3) La strategia deve essere multidimensionale: tecnologica, economica, geo-politica, sociale.
4) La scala temporale è necessariamente di lungo periodo, ma è decisivo tenere presente che esiste già un divario tra ciò si sta producendo nel campo dell’AI e il livello di consapevolezza e preparazione delle Istituzioni.
Questi e altri importanti temi esigono un ripensamento profondo delle nostre società e degli odierni assetti, in un’era che definire di transizione si configura come un eufemismo.
Conclusioni
Dall’analisi svolta emerge che i grandi players dell’AI sono impegnati in una vera e propria accelerazione di traiettorie di ricerca esplorativa verso un ignoto denso di incognite e rischi attuali. Elenchiamo sinteticamente alcune delle questioni emergenti:
- Si profila uno scenario competitivo molto intenso alla frontiera dell’AI, che diviene un settore sempre più concentrato, con il potere di mercato in mano a un ristretto numero di player: Google Cloud, Amazon Web Services, Microsoft (Chassaney, 2024), a cui si aggiungono Open AI e Nvidia, protagonisti cruciali dell’infrastruttura computazionale per una AI dagli esiti non previsti e imprevedibili.
- C’è una evidente mancanza di informazioni circa i fabbisogni di energia e di risorse strategiche (acqua, materiali rari) che quantità enormi di GPU, elementi basilari dei progetti di nuovi sistemi di GenAI richiederanno. Ciò contraddice fortemente i principi enunciati in uno dei Report fondamentali per la creazione degli LLMs, per i quali in esso si introduceva il termine “foundation moldes” (Bommasani et al, 2021). In questo scritto sono enunciati sistematicamente principi basilari per la loro realizzazione e per la verifica degli effetti potenzialmente negativi. In materia ambientale, il Report (cap. 5.3, p. 140) indica elementi positivi e sottolinea la imprescindibile necessità di trasparenza nel calcolo di tutte le possibili esternalità negative dal punto di vista ecologico. Non sembra che le raccomandazioni in tal senso siano recepite appieno dalle cosiddette big tech.
- Emerge un problema rilevante, a cui Sam Altman accenna in un’intervista (a cui abbiamo accennato sopra), ovvero il divario tra accelerazione tecnico-scientifica e i ritmi evolutivi delle società e degli umani, investiti quotidianamente da flussi informativi così rilevanti e rapidi da non poter essere controllati se non da potenti attori a livello globale. In altri termini, siamo di fronte ad un dilemma cruciale: la crescita esponenziale di una tecnologia sempre più complessa è ben al di là della capacità di elaborazione delle menti umane individuali e della nostra consapevolezza, della capacità di essere accorti circa la fondatezza delle informazioni[12]. È un grande tema su cui la riflessione di filosofi, politologi e computer scientists è in atto da tempo e dovrebbe essere al centro delle riflessioni di tutti.
Bibliografia
Ars Technica, 16-1-2024, AI poisoning could turn models into destructive “sleeper agents” says Anthropic , https://arstechnica.com/.
Bass D. 10-1-2023, Microsoft to Invest $10 Billion in ChatGPT Maker OpenAI (MSFT), Bloomberg.
Bommasani R. et al., 2021, On the Opportunity and Risks of Foundation Models, Center for Research on Foundation Models (CRFM)
Branwen G., 2020, The scaling hypothesis. https://gwern.net/scaling-hypothesis.
Bote J., 17-11-2023, What Sam Altman said at APEC, a day before he got fired from OpenAI, The San Francisco Standard.
Brown T. B. et al., 2020, Language Models are Few-Shot Learners, http://arxiv.org/abs/2005.14165 arXiv [cs.CL].
Buolamwini J. Gebru T., 2018, Gender Shades Intersectional Accuracy Disparities in Commercial Gender Classification, Proceedings of Machine Learning Research, 8, Conference on Fairness, Accountability, and Transparency
Chassaney A-S., 24.11-2023, The lessons of the OpenAI soap opera for Europe, Financial Times.
Dietsch B., 19-11-2023, REBONDISSEMENT // Après avoir été débarqué illico presto, le fondateur de Chat GPT Sam Altman pourrait revenir aux commandes d’OpenAI dès la semaine prochaine, Forbes.
Evans B., 25-11-2023, The ‘AI doomers’ have lost this battle, Financial Times.
Fang R. et al., 15-2-204, LLM Agents can autonomously hack Websites, arXiv:2402.06664v3 [cs.CR].
Fortune, 9-9-2023, A.I. tools fueled a 34% spike in Microsoft’s water consumption.
Gladstone AI Inc., 3-11-2023, Survey if AI R&D Trajectories.
Gladstone AI Inc., 26-2-2024, Defense in Depth: An Action Plan to Increase the Safety and Security of Advanced AI, “This publication was produced for review by the United States Department of State… the content are the responsibility of the authors. The authors’ views expressed in this publication do not reflect the views of the United States Department of State.
Goldman S., 3-8-2023, Nvidia GPU shortage is ‘the top gossip’ of Silicon Valley, Venture Beat.
Goldman S., 17-1-2024, In Davos, Sam Altman softens tone on AGI two months after OpenAI drama, Venture Beat.
Goswami R., 18-11-2023, OpenAI’s unique corporate structure left Sam Altman vulnerable. Now he’s out, CNBC.
Hagey H., 5-2-2024, Sam Altman Seeks Trillions of Dollars to Reshape Business of Chips and AI, Wall Street Journal.
Rarris T., Frueh S., 16-5-2023, The complexity of Technology’s Consequences Is Going Up Exponentially, But Our Wisdom and Awareness Are Not, Issues in Science and Technology,
National Academies of Sciences, Engineering, and Medicine, Arizona State University.
.Heikkilä M., 27-11-2023, Unpacking the hype around OpenAI’s rumored new Q* model, MIT Technology Review
Hendricks D., Mazeika M., Woodside T., 9-10-2023, An Overview of Catastrophic AI Risks, arXiv:2306.12001v6 [cs.CY], Center for AI Safety.
Jumper J. et al.,26-8-2021, Highly accurate protein structure prediction with AlphaFold, Nature | Vol 596.
Kaplan J. et al., 2020, Scaling laws for neural language models, http://arxiv.org/abs/2001.08361, . arXiv [cs.LG].
Knight W., Levy S., How OpenAI’s Bizarre Structure Gave 4 People the Power to Fire Sam Altman, Wired.
LI P. et al., 29-10-2023, Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models, arXiv:2304.03271v3 [cs.LG].
Lombardi M., 2021, Transizione ecologica e Universo fisico-cibernetico, Firenze University Press.
Lombardi M., 2023, Digital Economy and Digital Divide, in: (Editors: Surinder S. Jodhka, Boike Rehbein Global Handbook of Inequality, Springer.
Marcus G., 23-11-2023, About that OpenAI “breakthrough”. Will OpenAI’s Q* change the world?, https://garymarcus.substack.com/.
Marcus G., 9-2-2024, What Could Possibly Go Wrong with Sam Altman’s New Ambitions?
Marcus G., 10-2-2024, Seven reasons why the world should say No to Sam Altman.
Microsoft, 23-1-2023, Microsoft and OpenAI extend partnership, Microsoft corporate Blogpost, dichiarazione di Satya Nadella Chairman e CEO di Microsoft.
Moore E., 29-11-2023, The Lex Newsletter: OpenAI’s secrecy imperils public trust, Financial Times.
OpenAI, 24-2-2023, Planning for AGI and beyond, https://openai.com/.
Patel N., 10-6-2023, Inside the Googles big AI shuffle – and how it plans to stay competitive, with Google DeepMind CEO Demis Hassabis, The Verge.
Pressfarm, 2-3-2024, Failures of Y Combinator’s Sam Altman & How He Overcame Them, https://press.farm/f.
Roose K., 11-11-2023, Personalized A.I. Agents Are Here. Is the World Ready for Them?, The New York Times.
Sastry G. et al., 13-2-2024, Computing Power and the Governance of Artificial Intelligence, arXiv:2402.08797v1 [cs.CY].
Shilov A., 26-12-2023, Nvidia’s H100 GPUs will consume more power than some countries, tom’sHARDWARE, https://www.tomshardware.com/
Sigalos M., Brown R., 16-1-2024, OpenAI’s Sam Altman says human-level AI is coming but will change world much less than we think, CNBC.
TechCrunch , 9-3-2018, Did Sam Altman make YC better or worse?. , https://techcrunch.com/2019/03/09/.
The White House, 30-10-2023, FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence.
Varadi M. et al., 2024, AlphaFold Protein Structure Database in 2024: providing structure coverage for over 214 million protein sequences, Nucleic Acids Research, 52, D368–D375.
Victo J., Efrati A., 22-11-2023, OpenAI made an Ai Brakthrough before Altman firing stocking Excitement and Concern, The Information.
Waters R., Hammond G., Murgia M., 2011-2023, I’ve never seen anything like this’: how OpenAI’s dramatic weekend unfolded, Financial Times.
Wright R., 17-2-2024, Sam Altman’s Big, Bad Idea, Nonzero Newsletter, https://nonzero.substack.com/
- Scetticismo sulla “scoperta” è motivato da vari analisti (per es. Gary Marcus Marcus, 2023, professore emerito di computer science alla New York University) ↑
- Attualmente il limite è pari a 100 volte l’investimento iniziale dei finanziatori. In poche parole, se un investitore investe un dollaro e OpenAI ha un profitto di 100 miliardi di dollari, l’investitore riceve solo 100 dollari (Goswami, 2023). ↑
- Altman in una nota esplicita che preferisce usare l’espressione “machine intelligence” anziché “artificial intelligence” “because it seems to imply it’s not real or not very good. When it gets developed, there will be nothing artificial about it”. ↑
- Chris Cox (Meta Chief Product Officer), James Manyika (Google senior vice president). ↑
- La serie di microchip H100 è quella successive alla serie A100, prodotti sempre Nvidia. ↑
- AlphaFold è un sistema di AI che ha consentito di creare un database di 214 milioni di strutture proteiche (Varadi et al., 2024; Jumper et al, 2021). ↑
- Hassabiss ha firmato con Sam Altman e altri computer scientists una lettera al Center for AI Safety, mettendo in guardia contro i rischi dell’AI. ↑
- “If someone told me that Silicon Valley was ran by a cult believing in a machine god for the cosmos & “universe flourishing” & that they write manifestos endorsed by the Big Tech CEOs/chairmen and such I’d tell them they’re too much into conspiracy theories. And here we are” (27-2-2023). Il documento a cui si riferisce è OpenAI” (24-2-2023). ↑
- Uno dei passaggi più espliciti è il seguente: “Without prescribing specific policies, we argue that compute can be leveraged in many specific ways to enhance three key areas of governance”. ↑
- Sulla base di queste valutazioni Wright “sogna” che i governi introducano una tassa progressiva sui nuovi e potenti microchip, i cui proventi siano impiegati per studiare il cosiddetto alignment problem, in sintesi il problema di come sviluppare la complementarità tra sviluppo tecnico-scientifico e l’evoluzione umana. Su questo tema cruciale torneremo in un futuro contributo. ↑
- L’analisi contenuta non è espressione dello stesso Dipartimento di Stato ↑
- Si veda a questo riguardo Harris e Frueh (2023). ↑