L’intelligenza artificiale (IA) non è certo nata un anno fa, con il lancio da parte di OpenAI (con il fondamentale supporto di Microsoft) di ChatGPT. Perché allora sembra che ci sia come un’era pre e post Gpt (novembre 2022, lancio di Chatgpt)? Siamo davvero davanti a qualcosa che cambierà il mercato e tutti i soggetti? Sono queste le domande da porsi, tra le tante incognite di carattere business che riguardano sia i produttori sia gli utilizzatori di IA.
Perché ChatGpt è diventato sinonimo di intelligenza artificiale per molti
È di oltre 80 anni fa la pubblicazione (“Computing machinery and intelligence”, Mind, 1950) del cosiddetto “test di Turing”, in cui il matematico inglese – famoso per il ruolo che ebbe nel decifrare i codici tedeschi durante la seconda guerra mondiale e considerato il padre della computer science e della stessa IA – proponeva una serie di criteri per valutare l’”intelligenza” di una macchina, in un momento in cui i transistor allo stato solido (componenti fondamentali dei futuri computer elettronici digitali) erano nati da soli 3 anni nei Bell Labs e l’UNIVAC 1 sarebbe uscito solo l’anno dopo.
E da molti anni a questa parte l’IA è considerata “the next big thing” – come nel passato le nascite dei primi computer negli anni ‘50, dei microprocessori e di Internet nei successivi decenni del secolo scorso e il lancio nel 2007 dell’iPhone – con episodi, come la vittoria nel 2011 di IBM Watson nel popolarissimo gioco televisivo statunitense Jeopardy!, che ne fecero apparire più di una volta a portata di mano una sua diffusione travolgente nel mondo delle imprese e nella nostra vita di tutti i giorni.
Alcune applicazioni, come Siri assistente virtuale di Apple e Alexa di Amazon, hanno goduto di qualche popolarità. E, in misura meno visibile, forme di IA sono state introdotte in molte altre attività (incluse quelle militari), per facilitare processi complessi e per approfittare della crescente capacità dell’IA stessa di analizzare in tempi ristretti enormi quantità di dati, come frutto congiunto del potenziamento della capacità e velocità di calcolo e della introduzione di nuovi strumenti concettuali di istruzione dei modelli di IA, quali ad esempio i transformer messi a punto da Google nel 2017 – fondamentali per la creazione di ChatGPT come la sigla GPT-Generative Pre-trained Transformers chiaramente evidenzia – e gli LLM-large language models in larga misura basati su di essi.
Perché, in questo contesto, il lancio di ChatGPT ha avuto un’eco così rilevante?
Perché è stata la prima volta (a parte le esperienze di portata minore sopra citate), io credo, in cui il largo pubblico si è trovato a poter disporre direttamente di strumenti di IA: di IA “generativa” per giunta, con i suoi effetti “quasi magici” e la sua facilità d’uso. Cento milioni di utenti a due mesi dal lancio: l’applicazione di più rapido successo nella storia.
Perché il nome ChatGPT è diventato un quasi sinonimo di IA “generativa”?
Perché (questa è almeno la mia opinione), in un contesto in cui molte imprese – oltre a OpenAI la lista comprende in prima fila Alphabet-Google e Meta fra le big tech e Anthropic fra le startup – stavano lavorando all’IA “generativa”, come risulta dai tempi estremamente ristretti in cui anch’esse sono uscite poi allo scoperto, OpenAI (con Microsoft alle sue spalle che le ha fornito come noto un rilevante e continuo appoggio finanziario e ne è ora un grande azionista) ha giocato la carta di uscire per prima allo scoperto, accettando qualche rischio di immagine (per possibili allucinazioni, disinformazioni, espressioni di odio, ecc,) che soprattutto Google e Meta erano riluttanti ad assumersi: con il risultato di prendersi implicitamente i meriti, agli occhi dell’opinione pubblica, del lungo lavoro svolto da un ampio insieme di soggetti, con (almeno fino a un certo momento) scambi continui di informazioni sui progressi nell’attività di ricerca.
Il tutto con quella che io ritengo essere stata una delle più grandi operazioni di marketing su scala globale della storia: una operazione che ha visto Sam Altman, CEO di OpenAI, girare il mondo per annunciare un giorno in una udienza nella Camera statunitense i rischi che l’IA poteva comportare per la sopravvivenza dell’umanità e per minacciare un altro giorno di negare agli europei l’accesso alla sua Chat se l’UE avesse approvato una regolamentazione molto restrittiva; un’operazione che ha fatto tornare alla ribalta Bill Gates, con le sue previsioni sulla centralità futura dell’IA “generativa”.
L’impatto nell’ecosistema tech
Come hanno reagito le big tech all’enorme popolarità acquisita dall’IA “generativa”?
Microsoft
Microsoft, che ha avuto come detto un ruolo forte nella creazione della popolarità stessa, sta incorporando l’intelligenza artificiale di GPT in tutti i suoi prodotti, dopo una attenta esplorazione di quali siano le principali esigenze nel mondo sia corporate sia consumer: sofisticate alcune; più banali altre, ma volte a risparmiare tempo, quale quella richiestissima da parte di chi opera nell’imprese di disporre di un assistente virtuale che sappia leggere le email e rispondere in modo appropriato (con an entire condolence note or a poem to a romantic partner secondo Bloomberg) imitandone lo stile di scrittura. E spera che il suo motore di ricerca Bing, che ha tuttora una quota di mercato (anche negli US) irrisoria rispetto a Google, possa in questo modo recuperare terreno.
Google e Meta
Alphabet-Google e Meta, le big tech che più storicamente hanno investito sull’IA, hanno esigenze in larga misura diverse e le loro risposte sono solo in parte coincidenti. Google, preoccupata in primo luogo per l’attacco da parte di Microsoft al suo motore di ricerca (che tuttora rappresenta con i ritorni pubblicitari la sorgente di gran lungo predominante dei suoi ricavi e utili), ha messo in campo Bard come risposta a GPT.
E sta integrando anch’essa come Microsoft l’IA “generativa” in tutti i suoi prodotti, con una particolare attenzione ai clienti dei suoi ad, cui offre strumenti di supporto alla creatività. Un qualcosa di simile nei riguardi dei suoi clienti fa Meta, che però – a differenza di Google con Bard (rimasto proprietario come GPT) – ha reso open source il suo LLM Llama2, ma nello stesso tempo si accinge secondo le indiscrezioni a mettere a punto un nuovo LLM che vorrebbe più potente rispetto alle ultime versioni del GPT di OpenAI. E, in linea con quanto fanno le altre big tech, sta progettando in casa i microprocessori adatti allo scopo, pur continuando ad acquistare quelli (per ora insuperabili nelle prestazioni ma estremamente costosi) di Nvidia.
Amazon
Amazon, cui come noto fa capo il cloud numero uno al mondo AWS, è di recente entrata con una immissione di 4 miliardi di $ (in cash e/o in tempi di utilizzo delle sue potenti infrastrutture di calcolo) nell’azionariato di Anthropic: con finalità non meramente finanziarie, ma con un progetto di forte cooperazione fra Anthropic stessa, con la sua famiglia di Claude (considerati fra i più agguerriti concorrenti dei GPT di OpenAI), e AWS.
Apple
Solamente Apple per il momento non ha annunciato nuovi progetti nell’AI “generativa”, ma ha ricordato – per bocca del suo CEO Tim Cook – che l’impegno nell’AI stessa è forte. E anche Apple sta progettando i suoi microprocessori per l’IA.
In sintesi, o perché credono nello sviluppo dell’IA o perché in questo momento di grande popolarità dell’IA stessa uno scarso impegno sarebbe probabilmente “punito” dalle Borse, le “big tech (come sottotitolava un suo articolo a fine settembre WSJ) “stanno facendo a gara nell’incorporare l’IA generativa in ogni aspetto dei loro business, puntando a rendere l’IA stessa indispensabile, ma rendendola comunque inevitabile anche per chi non la percepisce come tale”. Con la conseguenza che, come appare nel titolo “You Soon Won’t Be Able to Avoid AI—At Work or At Home”, sarà sempre più impossibile sfuggire all’IA, al lavoro o a casa.
E le altre imprese tech, “giovani startup” e “vecchie glorie”?
Ho già parlato di OpenAI e di Anthropic (formata da fuorusciti di OpenAI), ma la lista delle startup che operano nell’ambito dell’IA generativa – offrendo prodotti e/o servizi di varia natura – è molto lunga (20 tra le principali sono riportate nella Tab. 1) e in continua evoluzione. Ma anche imprese molto più consolidate vogliono giocare le loro carte:
- per riaffermare come IBM l’interesse storico per l’IA e valorizzare il lavoro svolto in almeno due decenni;
- per cercare come Adobe di evitare – sinora con grande successo a dispetto di quanto prevedevano molti analisti (in Fig. 1 la reazione della Borsa negli ultimi 6 mesi) – che una parte molto importante del suo business, quella che ha a che fare con la gestione delle immagini (Photoshop il nome più evocativo a tale riguardo), venga travolta dalla capacità di gestire anche immagini dell’IA generativa.
Uno dei punti di forza di Adobe, è interessante evidenziarlo per la rilevanza che la privacy e i diritti di autore stanno assumendo nell’ostacolare l’istruzione dei nuovi grandi modelli, è l’enorme archivio di immagini che essa possiede con tutti i relativi diritti di utilizzo.
Il mondo corporate in generale come sta rispondendo all’offerta di nuovi servizi? Avrà vantaggi di produttività promessi?
Se il mondo consumer – che peraltro comprende una larga percentuale di persone che operano nelle imprese o svolgono attività professionali in proprio – è stato spesso spinto dalla curiosità a sperimentare ChatGPT, e il quasi dimezzamento del numero di chi lo usa con frequenza lo testimonia chiaramente, i grandi guadagni di produttività a livello globale (promessi in questi mesi sia dai protagonisti dell’IA generativa sia dalle grandi società di consulenza sia dagli analisti di istituzioni finanziarie come Goldman Sachs) richiedono che il mondo corporate riesca a individuare le aree di applicazione più promettenti, al di là degli impieghi più banali quali quello (sopra accennato) di rispondere alle email.
Ci sono utilizzi di cui già si parla molto per i vantaggi che offrono – essere di supporto alla scrittura di programmi piuttosto che offrire una molteplicità di idee/immagini fra cui scegliere a chi voglia reclamizzare online un proprio prodotto e/o servizio – ma la strada da percorrere è ancora lunga e non è affatto certo (almeno questo è il mio punto di vista) che la tecnologia abbia raggiunto quel grado di maturità in grado di fare la differenza.
Incognita productivity boost
E comunque, come sottolineava recentemente WSJ (una testata che sto citando spesso perché molto attenta a queste tematiche) nel recentissimo articolo “AI Could Spur an Economic Boom. Humans Are in the Way – Artificial intelligence could drive big gains in productivity and growth, but when it happens depends on how people adapt”, anche le previsioni più ottimistiche – quale quella di Goldman Sachs che prevedono un impatto dell’1,5% sulla produttività dell’economia statunitense nell’arco del prossimo decennio – sono strettamente condizionate alla clausola della larga adozione.
Le sfide dell’adozione di una nuova tecnologia
L’IA e l’IA generativa in particolare potranno dare un boost alla produttività? Sì, sembrano dire gli economisti. Ma il dubbio è: quando? La risposta dipende da quando ci sarà ampia adozione. Joseph Briggs, economista senior di Goldman, sottolinea che è difficile prevedere quando avverrà l’ampia adozione dell’IA. L’aumento che l’IA fornisce alla crescita della produttività potrebbe essere di 0,3 punti percentuali o di 2,9 punti, a causa delle incertezze sui tempi di adozione da parte delle aziende e sulle capacità definitive dell’IA, ha affermato Briggs. Ha aggiunto che di solito c’è un ritardo tra un’innovazione tecnologica e l’adozione diffusa, e che l’IA potrebbe iniziare ad avere ampi effetti macroeconomici nella seconda metà di questo decennio e negli anni 2030.
L’adozione è una questione articolata: significa che una tecnologia è usata diffusamente da dipendenti e aziende a vari livelli; è integrata in modo corretto nei processi; sono sviluppate competenze adeguate (non solo di IA ma anche trasversali tra AI e i processi impattati); infine, una buona adozione passerebbe anche dal fatto che le aziende siano riuscite a trasformare la tecnologia in un boost di produttività, cosa che secondo alcuni economisti non si è ancora visto nemmeno con internet. E altre tecnologie – elettricità, computer – hanno impiegato decenni per portare vantaggi in termini di produttività.
Ma più in generale, in ballo non c’è solo l’adozione da parte delle aziende a tutti i livelli: un principio della middle out economics (teoria di macroeconomia) è che l’economia cresce solo se la classe media è coinvolta. Se l’IA resterà appannaggio di pochi – come teme Dan Acemoglu (Power and Progress, 2023) quelle aziende avranno un boost di produttività; ma l’economia in generale no. E una produttività ferma può arrivare, alla lunga, a penalizzare tutte le aziende, incluse quelle che hanno adottato l’IA, per il ridotto potere d’acquisto dei loro clienti.
Alessandro Longo
Le imprese si stanno muovendo? E se sì con convinzione? C’è molto fermento, soprattutto fra le imprese quotate o che intendono quotarsi, per il timore dei CEO di apparire arretrati al mercato finanziario o per la voglia di dimostrarsi avanzati, con grande soddisfazione delle società di consulenza chiamate a dare suggerimenti. Su quanto sia diffusa la convinzione e su quanto siano realmente intelligenti molte delle prime applicazioni esibite al pubblico non mi pronuncio.
Quelle che sarebbero strettamente necessarie, per la loro capacità di trascinamento, sono le esperienze di forte successo: i cosiddetti breakthrough, al momento non mi sembra ancora così significativi.
Chi riesce a “fare soldi” con l’IA generativa e chi è alla ricerca di business model che la rendano profittevole
IN realtà ci sono incognite anche lato business dell’offerta tecnologica.
Come storicamente spesso accaduto in occasione delle grandi innovazioni, sono i “venditori di pale e picconi” (una definizione spesso usata con riferimento alla “corsa all’oro” che a metà ‘800 portò in California molti cercatori) che almeno all’inizio fanno più soldi. Il maggior fruitore singolo del lancio di ChatGPT non è né OpenAI né Microsoft, bensì Nvidia, che come noto produce i microprocessori più efficienti – i cosiddetti GPU-Graphic Processing Unit – per i processi di istruzione e interrogazione degli LLM.
Nvidia vale attualmente 1.120 miliardi di dollari, più o meno quattro volte la sua capitalizzazione al momento del lancio di ChatGPT (ma in precedenza aveva già superato poco meno di 2 anni fa gli 800 miliardi all’epoca della “corsa al bitcoin”), il suo utile netto degli ultimi 4 trimestri ha superato (dato Financial Times) i 10 miliardi di $ ed è nelle condizioni di scegliere chi privilegiare nelle forniture (da cui probabilmente i riflettori su di essa puntati dall’antitrust francese e da quello UE), per lo squilibrio fra domanda e capacità produttiva. E le grandi società di consulenza, come accennato in precedenza, sono le altre grandi fruitrici di questo momento di entusiasmo, in cui molte importanti imprese vogliono o si sentono nell’obbligo di esplorare le potenzialità dell’IA generativa per i loro business e/o per l’efficientamento della loro macchina organizzativa.
Per le imprese che come OpenAI e Anthropic hanno messo a punto i modelli al momento ritenuti top e per le big tech che come visto stanno immettendo l’IA generativa nei loro prodotti il problema si pone in maniera diversa: l’apprezzamento da parte del mercato finanziario è sempre rilevante, mentre l’impatto sui bilanci continua a essere molto negativo, in assenza di business model – e presumibilmente alle loro spalle di tecnologie e/o incrementi della competitività nei GPU – capaci di trasformare in nero il rosso dei conti.
Relativamente alla Borsa si è visto come Alphabet, Microsoft e ancor più Adobe siano cresciute negli ultimi 6 mesi, e lo stesso è accaduto anche per Amazon e Meta: con un recupero rispetto alla caduta precedente che molti analisti legano all’hype suscitata dal lancio di ChatGPT. Ma anche le non quotate sono cresciute significativamente di valore, se si guarda ai loro aumenti di capitale: per OpenAI, valutata 30 miliardi di $ in occasione dei 10 miliardi immessi da Microsoft, si parla di una valutazione di 90 miliardi nel prossimo aumento, con un risultato economico che è viceversa molto negativo; per Anthropic si parla di una valutazione di 30 miliardi.
Le difficoltà di mettere a punto business model profittevoli nell’erogazione di strumenti di IA generativa è oggetto di una interessante serie di riflessioni di WSJ: “Big Tech Struggles to Turn AI Hype Into Profits – Microsoft, Google and others experiment with how to produce, market and charge for new tools”.
In primo luogo WSJ pone in evidenza i costi molto elevati che devono essere sostenuti non solo nella messa a punto dei modelli di IA, ma anche – in assenza di economie di scala – ogniqualvolta si pongono loro domande. Tanto che le prime stime rilevano un utilizzo in perdita per Microsoft.
Usare ChatGpt per sintetizzare una mail è come usare una Lamborghini per pizze a domicilio
Il Wsj fa spiritosamente notare, in relazione ai servizi offerti da Microsoft, come l’uso che essa fa della versione più aggiornata e costosa (GPT-4) dei modelli AI di OpenAI, anche per la semplice richiesta di sintetizzare una email, “equivalga a servirsi di una Lamborghini per un servizio di consegna di pizze a domicilio”.
Discute sulle alternative: se e quando usare modelli meno costosi, se passare da un abbonamento a costo fisso a uno (come alcune imprese fanno) che faccia pagare i consumi al di sopra di una certa soglia; e così via.
Si pone infine la domanda, rivolgendola a personaggi vari, se i problemi di mancata redditività non potranno spegnere – almeno temporaneamente – gli entusiasmi del mercato finanziario e delle imprese, spingendo verso valutazioni più basse da un lato e verso una politica di molto maggiore attenzione ai costi dall’altro.
Ma se poi finisce l’era di un servizio sovvenzionato dai produttori e, di conseguenza, se non si trova un modo per ridurre i costi di computing, i prezzi finali aumenteranno, ci sarà un impatto su adozione e su effettivi vantaggi economici per le aziende utilizzatrici.
Sarà l’IA generativa a decretare l’inizio del tramonto per l’iPhone … e per Apple?
Una domanda provocatoria finale riguarda Apple. L’IA sarà la rivoluzione che ci porterà fuori dall’era smartphone?
Le notizie:
- Sam Altman da un lato, che di recente sembra abbia iniziato a discutere di un nuovo gadget con Sir Jonathan Paul Ive, il designer inglese che è stato Chief Design Officer dal 1997 al 2019 e che come tale ha progettato con Steve Jobs l’iPhone;
- Mark Zuckerberg dall’altro, galvanizzato dal prossimo lancio degli smart glasses, nati da una collaborazione fra Meta e Ray-Ban (EssiLux), che incorporano un AI virtual assistant.
Ne ha parlato ampiamente di recente The Economist – “So long iPhone. Generative AI needs a new device: Is this the twilight of the screen age?” – riportando da un lato il parere di un noto blogger che come Internet ha aperto la strada alla nascita dello smartphone, così la recente capacità dei chatbot di parlare e di ascoltare potrebbe rendere possibile la nascita di un nuovo hardware breakthrough; evidenziando dall’altro lato tutte le difficoltà per un cambio così radicale, anche per le implicazioni sociali della sua maggiore immersività.