L’appuntamento annuale con l’Artificial Intelligence Report della Stanford University, la cui edizione 2024 è stata pubblicata nei giorni scorsi, offre lo spaccato più completo sugli attuali trend del settore a livello mondiale, dalla tecnologia agli investimenti, dalla ricerca all’occupazione.
Dopo che la scorsa edizione aveva appena registrato la rivoluzione rappresentata dall’IA generativa e dall’ingresso in scena di ChatGPT, la sua prima killer application, l’attuale rappresenta la prima analisi completa dei traguardi preliminari raggiunti e delle sue potenzialità future.
Dal numero alle performance dei modelli di frontiera, dai rischi alle conseguenze sul lavoro, dagli investimenti ai costi di addestramento.
L’analisi ci consente anche di leggere in controluce l’evoluzione dei modelli di business delle aziende che stanno guidando la rivoluzione tecnologica più profonda dei nostri tempi.
Il primato delle aziende sull’accademia nella ricerca
In un approfondimento di inizio 2023, a poche settimane dal lancio di ChatGPT, il settimanale The Economist notava la strana piega che aveva assunto la ricerca sull’intelligenza artificiale (IA) negli ultimi anni.
Contrariamente a quanto avvenuto nei decenni precedenti, che avevano visto le imprese, anche quelle più innovative, concentrarsi sullo sviluppo più che sulla ricerca vera e propria, nell’IA sono le aziende a trovarsi sulla frontiera tecnologica più avanzata, almeno negli USA.
Lo testimoniano non solo le cifre gigantesche allocate in bilancio alla voce R&S ma anche indicatori nei quali tradizionalmente primeggiano le istituzioni accademiche, come ad esempio le pubblicazioni scientifiche. Da anni Google e Microsoft sfornano più paper sull’IA della Stanford University considerata da sempre l’università leader nel campo, con Meta e Amazon non troppo distanti. Naturalmente è anche una questione di dimensione (ciascuna di queste aziende occupa molte decine di migliaia di persone di cui una parte non trascurabile sono ricercatori strappati proprio alle università) ma non solo.
L’AI Index Report conferma questo trend sia in maniera diretta che indiretta. Dei principali modelli di machine learning nel mondo, nel 2023 ben 51 (ben più della metà) venivano dalle imprese, 21 da collaborazioni tra imprese e università, 15 dalle università e 2 dai governi.
Il sorpasso dell’industria sull’accademia risale al 2017 e da allora si è rafforzato anno dopo anno in maniera esponenziale. Interessante parallelamente il primato storico raggiunto l’anno scorso non solo dal numero di modelli sviluppati dalle imprese ma anche da quello delle collaborazioni tra queste ultime e le università. Quasi una ricetta per il futuro se le istituzioni accademiche vogliono continuare a ritagliarsi un ruolo significativo.
D’altronde era stata una scienziata del calibro di Fei-Fei Li, professoressa proprio di Stanford e creatrice di ImageNet, a lanciare l’allarme, di fronte al Congresso USA e più recentemente in un suo libro, sulla progressiva emarginazione degli atenei nella concreta capacità di sviluppare e addestrare modelli di IA che richiedono capacità computazionale gigantesca e costosissima.
Sempre più costoso il training
A questo proposito, il rapporto ci dà la conferma indiretta della barriera all’entrata sempre più alta per atenei e centri di ricerca pubblici.
Se per allenare modelli di frontiera fino al 2022 si poteva contenere la spesa in centinaia di migliaia o tutt’al più una manciata di milioni di dollari, per GPT-4 e Gemini Ultra il costo è stato rispettivamente di 78 e 191 milioni di dollari.
Secondo Dario Amodei, fondatore di Anthropic, già quest’anno potremmo toccare il miliardo e i 10 nel 2025.
Cifre che nessuna università anche ben finanziata è in grado di investire. E gli Stati – sempre più indebitati in Occidente – pure ci penserebbero molte volte prima di farlo.
Talenti nelle mani delle aziende
La conseguenza è che almeno Oltreoceano i migliori talenti in circolazione preferiscano ormai lavorare nelle aziende piuttosto che nelle università, attratti dalla prospettiva di potersi applicare sui modelli più evoluti oltre che da compensi che superano in molti casi il milione di dollari all’anno (e per chi ha un dottorato in tasca possono raggiungere tranquillamente le svariate centinaia di migliaia di euro).
Anche se diversi dei nomi più importanti in circolazione (il caso forse più noto ma non certo l’unico è quello di Yann LeCun, Chief AI Scientist di Meta e contemporaneamente Professore alla New York University) hanno mantenuto il piede in due staffe.
Questa commistione tra accademia e business ha avuto come importante risvolto quello di aprire quest’ultimo a una maggiore trasparenza, tipica dell’ambiente di ricerca, e una popolarità piuttosto radicata, ancorché non generalizzata, dell’open source. Rispetto al primo elemento, ci si può chiedere cosa sarebbe accaduto all’IA generativa se l’architettura transformer, avanzata in un paper scientifico di una decina di pagine preparato per una delle principali conferenze di settore, fosse rimasta nelle segrete stanze di Google, dove fu sviluppata originariamente nel 2017.
Mentre la difesa di un approccio open-source ha creato le condizioni per una alleanza promossa da Meta e IBM insieme ad alcune decine di università e centri di ricerca, molti dei quali di natura pubblicistica, oltre ad altre aziende.
A dimostrazione di come siano caduti gli steccati tra mondi che almeno da questa parte dell’Atlantico riteniamo ancora molto diversi fino ad essere quasi inconciliabili.
Lo stesso report di Stanford mostra da un lato che i modelli open source sono sempre più popolari, avendo rappresentato nel 2023 il 65,7% dei modelli fondazionali rilasciati nel mondo (erano il 44,4% nel 2022 e il 33,3% nel 2021), dall’altra sono però ancora molto meno performanti tecnicamente rispetto a quelli proprietari, con un vantaggio che in termini di differenza mediana si colloca al 24,2%.
La co-opetition tra grandi aziende e startup
Come ho raccontato nel mio libro “L’economia di ChatGPT. Tra false paure e veri rischi” (Egea), tre mesi prima del debutto di ChatGPT alla fine di novembre del 2022, Meta ha rilasciato un chatbot simile, chiamato Blenderbot. Ma a differenza del fenomeno che ChatGPT è diventato all’istante, Blenderbot ha fatto un buco nell’acqua, non riuscendo a mostrare alcun quid particolare.
Yann LeCun, che aveva supervisionato il progetto, a distanza di qualche mese ha ammesso in una conferenza che Blenderbot «era noioso», aggiungendo subito dopo che lo era «perché era stato reso sicuro».
Nel frattempo Meta ha lanciato il proprio modello linguistico LLaMa – ieri la terza versione – e lo stesso hanno fatto molti altri player (tra i quali molte delle principali imprese del settore).
Tuttavia, l’approccio meno cauto (o più intraprendente, che dir si voglia) di OpenAI potrebbe aver dato a quest’ultima un vantaggio competitivo, che non a caso l’ha portata a lanciare prima degli altri un prodotto avanzato come ChatGPT.
Anche perché un rilascio prima che i competitor facciano altrettanto a parità di sviluppo dei modelli dà il vantaggio di poter contare sui feedback degli utenti, un processo noto come «apprendimento rinforzato dal feedback umano» (RLHF), che peraltro è totalmente gratuito se svolto dagli utenti, al netto dei costi computazionali necessari a rispondere ai prompt in tempo reale.
La capacità delle startup (o comunque delle aziende più piccole rispetto ai grandi colossi tecnologici) di muoversi con maggiore velocità sia perché hanno meno da perdere in termini reputazionali ma soprattutto perché sono più agili e meno schiacciati dalle burocrazie interne è magistralmente spiegata da William C. Baumol, Robert E. Litan e Carl J. Schramm nel loro Capitalismo buono Capitalismo cattivo (Università Bocconi Editore, 2009).
Secondo i tre economisti, il capitalismo imprenditoriale, che loro essenzialmente identificano con un sistema economico fondato sul dinamismo delle piccole imprese, è quello più propizio all’innovazione radicale.
Ma, aggiungono, «nessuna economia avanzata può sopravvivere con i soli imprenditori (proprio come gli individui non possono sopravvivere mangiando alimenti di un solo tipo). Le grandi imprese restano essenziali per raffinare e trasformare in produzioni di massa le innovazioni radicali che gli imprenditori hanno una maggiore attitudine a sviluppare o introdurre».
Per i tre economisti statunitensi sono altri i rappresentanti del capitalismo cattivo, in particolare quello diretto dallo Stato e quello oligarchico, entrambi protetti dalla concorrenza e dunque dalle idee innovative di altri in grado di cambiare gli equilibri del mercato. Se guardiamo al progresso tecnologico, il principale driver della crescita economica, certamente le piccole startup sono essenziali per introdurre innovazioni radicali mentre le grandi imprese sono altrettanto importanti per sviluppare innovazioni incrementali che servono a mettere a terra le prime.
In ciascun mercato sufficientemente complesso, ampio e dinamico, è naturale che convivano imprese di dimensioni diverse. Come in un mare sufficientemente esteso e profondo non si incontrano solo cetacei oppure plancton, è probabile che imprese piccole e in alcuni casi piccolissime convivano con aziende molto grandi e in alcuni casi enormi.
E senza che queste ultime debbano per forza mangiare le prime. Più spesso la sopravvivenza delle prime si basa su quella delle seconde (naturalmente vale anche il viceversa). Quello che è interessante, e per certi versi nuovo, nel caso dell’IA generativa è che non solo imprese piccole e grandi convivano ma che facciano tra loro accordi strutturati, che in generale implicano un elevato investimento da parte della grande impresa nella piccola, che tuttavia mantiene la propria indipendenza.
In questo modo si cerca il meglio dei due modelli organizzativi: imprese come OpenAI e Anthropic possono conservare la propria natura non profit e un’organizzazione snella, tipica di una startup, ma al contempo sfruttare una piattaforma commerciale, finanziaria e di dati molto maggiore della propria; viceversa, le imprese più grandi possono mandare avanti aziende che hanno meno paura di loro di possibili scivoloni reputazionali e più agilità nello sviluppare modelli e applicazioni performanti.
Per questo stupisce che ci si meravigli rispetto a un presunto voltafaccia di Mistral AI, la startup francese nata appena un anno fa e rapidamente salita nell’Olimpo dei produttori dei migliori modelli di frontiera e che nelle scorse settimane ha sottoscritto un accordo con Microsoft, annunciando che i suoi prodotti saranno disponibili ai clienti di Azure, il cloud dell’azienda fondata da Bill Gates, e che d’ora in avanti non saranno solo open source.
Come si pretende che si possa sviluppare un’industria competitiva europea a prescindere dalla monetizzazione di quello che produce?
Tutto cambia perché nulla cambi? Le ultime mosse di Google e Microsoft
In realtà i costi di addestramento dei modelli, ai quali si sommano quelli necessari per mettere a disposizione dei clienti la potenza computazionale per farli girare e fornire risposte immediate alle loro richieste, anche quelle più strampalate, è certamente una delle ragioni che stanno spingendo le aziende a proporre versioni premium dei propri servizi. Anche di quelle che hanno offerto finora i loro prodotti di massa gratuitamente.
Sulla base di indiscrezioni raccolte, sembrerebbe che Google per la prima volta farà pagare le ricerche sul suo browser, nella versione aumentata dall’IA. Un modo anche per il gigante californiano di diversificare le entrate, che sono tornate a crescere rapidamente negli ultimi tempi ma sono ancora legate in larga maggioranza alla pubblicità online (a sua volta in buona parte basata sulla popolarità del motore di ricerca).
Allo stesso tempo, sempre di più ci si chiede se la necessità di difendere la visibilità del motore di ricerca e della pubblicità ad esso collegato possa rallentare la strategia IA di Google. Che aveva in panchina, ovvero nei propri laboratori, gran parte dei migliori informatici del mondo specializzati nel settore, come dimostra l’invenzione dell’architettura transformer.
Peccato che la sua relativa inerzia ha fatto sì che l’intero gruppo di ricerca alla base di quell’atto fondativo dell’IA generativa traslocasse in altre aziende.
Non era in quel gruppo ma è stato uno dei fondatori di DeepMInd, più tardi acquisita dal gigante di Mountain View, Mustafa Suleyman, che dopo aver lasciato il porto sicuro di Google ha fondato Inflection AI, una delle startup considerate di maggior successo dell’IA generativa.
Ebbene, a marzo Microsoft ha annunciato di avere nominato Suleyman capo di una nuova divisione creata ad hoc per vendere sul mercato prodotti IA. Ma la notizia più interessante non è questa ma il fatto che si trasferirà in Microsoft gran parte del personale di Inflection.
Non si tratta di grandi numeri (Inflection occupava 70 persone in tutto) ma di alcuni dei migliori talenti del settore. Sempre le acquisizioni di startup sono servite alle Big Tech per acquisire talenti oltre che prodotti o idee ma la particolarità di questa operazione è che Inflection continuerà ad operare. Non è stata acquisita la startup ma una buona parte delle risorse umane. Cioè il suo asset principale, in un campo dove i brevetti contano poco.
Qui viene da chiedersi se l’operazione sia stata suggerita da paure verso la maggiore intraprendenza delle autorità antitrust del mondo, a partire da quella statunitense, che ha aperto un’indagine sull’accordo tra OpenAI e Microsoft, che ne è il principale azionista. Allo stesso tempo, a sua volta Microsoft sta tentando di diversificare rispetto all’enorme investimento fatto in OpenAI, che in realtà è a tutti gli effetti un co-opetitor del gigante di Seattle, vendendo i propri prodotti indipendentemente da quest’ultimo, forte del successo delle proprie applicazioni e in particolare di ChatGPT.
Europa in ritardo
Certamente, a prescindere da come si evolverà la situazione, le aziende statunitensi, di vecchio e nuovo conio, rimangono le assolute protagoniste del mercato. Ce lo dicono due cifre eloquenti, anch’esse tratte dall’AI Index Report 2024.
Nel 2023, gli investimenti privati in IA sono stati pari a 67,3 miliardi di dollari negli Stati Uniti, contro meno di 10 miliardi di dollari dell’Unione europea. Se si guarda ai professionisti e manager del settore informatico, il gap di stipendio tra Stati Uniti e gli altri Paesi è in media compreso tra il 50 e il 150% per tutte le funzioni considerate. Una differenza che, a prescindere da come evolveranno i modelli di business e il gioco competitivo tra le aziende, allontana ulteriormente le due sponde dell’Atlantico e rende la rincorsa dell’Europa e delle sue imprese estremamente accidentata.