Già da qualche anno tantissime grandi imprese stanno delegando il proprio rapporto con i clienti a dei chatbot. I passi avanti fatti negli ultimi anni sull’elaborazione del linguaggio naturale hanno reso l’interazione tra gli individui e i bot un processo sempre più semplice, fluido ed efficace. Con l’avvento GPT-4 i possibili impieghi a livello professionale dell’intelligenza artificiale stanno però crescendo a ritmo esponenziale. Si stanno infatti diffondendo a macchia d’olio use case di GPT-4 negli ambiti più disparati: dall’istruzione, alla creazione di siti web, fino alla consulenza gestionale.
La “rivoluzione” ChatGPT
Sono ormai decenni che si parla di come l’Intelligenza Artificiale potrebbe trasformare completamente il nostro modo di vivere delegando alle macchine non solo task meccanici ma anche vere e proprie opere di ingegno originali simili a quelle che è in grado di partorire la mente umana.
Nonostante ciò, fino a pochi mesi fa non esisteva un esempio pratico (almeno a livello commerciale) dell’impatto che potesse avere questa tecnologia sulle attività quotidiane degli individui e delle imprese. Tutte le soluzioni tecnologiche in commercio che ricadevano sotto l’ombrello dell’IA erano infatti tutt’altro che intelligenti e sembravano ben lontane dall’avere le capacità di sostituire integralmente il pensiero umano. Da questo punto di vista ChatGPT è stata una vera e propria rivoluzione. Il chatbot lanciato da OpenAI a novembre 2022 ha infatti stupito tutti per la sua capacità, non solo di elaborare testi originali fornendo risposte dettagliate e articolate anche su argomenti complessi, ma anche di tradurre testi, creare sintesi di brani lunghi e perfino scrivere stringhe di codici di programmazione. Questa nuova soluzione tecnologica si adatta a un’ampissima gamma di funzioni aziendali e potrebbe nei prossimi anni trasformare completamente i modelli di business di interi settori industriali.
Cosa sono i Large Language Model
ChatGPT basa il proprio funzionamento su un Generative Pre-trained Transformer, ovvero una famiglia di Large Language Model (LLM) introdotta per la prima volta nel 2018 da OpenAI. In generale, i LLM sono reti neurali artificiali pre-addestrate su enormi set di dati che, invece di essere destinate a un compito specifico, possono svolgere una vasta gamma di funzioni differenti a un livello tanto più accurato quanto maggiori sono le risorse che gli vengono messe a disposizione (ad esempio set di dati e potenza di calcolo).
Uno degli aspetti più straordinari relativi ai Large Language Model è che all’aumentare delle dimensioni questi subiscono uno “sfasamento discontinuo” in cui il modello acquisisce abilità originali non presenti nei modelli più piccoli. Tali abilità, definite come “emergenti” non possono essere previste semplicemente analizzando le prestazioni dei modelli di dimensioni più piccole ma vengono piuttosto scoperte in fase di utilizzo. Le abilità scoperte fino ad oggi dai ricercatori sono innumerevoli, ad esempio il poter eseguire operazioni aritmetiche a più fasi, la possibilità di superare con successo esami universitari e la capacità di identificare il significato intrinseco di una parola in un contesto più ampio.
Crescita delle capacità in relazione alle dimensioni del LM
Fonte: Google Research
La capacità di sbloccare nuove abilità al crescere delle risorse a disposizione apre degli scenari imprevedibili sulle possibilità future legate a questa tecnologia. Potenzialmente ChatGPT e le sue sorelle potrebbero soppiantare molte delle mansioni svolte abitualmente dagli esseri umani.
Le principali iniziative sul mercato
Che la partita per lo sviluppo dei LLM stia diventando una cosa seria lo si è compreso chiaramente quando Microsoft ha deciso di investire ben dieci miliardi di dollari in OpenAI. ChatGPT, attualmente passata dall’essere basata sul modello GPT-3.5 al GPT-4 (che secondo la società che lo ha sviluppato ha reso il chatbot “più affidabile, creativo e in grado di gestire istruzioni molto più sfumate”), non è l’unica soluzione di Large Language Model attualmente in fase di studio. Come è possibile vedere dalla figura sottostante, tutti i grandi player del settore (e non solo) si sono cimentati nello sviluppo di modelli LL sempre più complessi. Ad oggi, i rivali più agguerriti di OpenAI, e quindi di Microsoft, sembrerebbero essere Meta e Google.
A febbraio scorso Mark Zuckerberg ha annunciato il lancio di LLaMA (Large Language Model Meta AI). Il modello sviluppato da Meta lavora su un numero di paramentri che va da 7 a 65 miliardi, inferiore quindi a quello di GPT-3 (il numero di paramentri su cui è stato addestrato GPT-4 non è ancora stato reso noto), il che però lo rende più facilmente accessibile. La volontà espressa da Meta è infatti quella di democraticizzare l’accesso ai LLM.
Dal canto suo, Google è attiva nello sviluppo di modelli di Large Language fin dal 2020 e già nel 2021 aveva annunciato il suo LaMDA (Language Model for Dialogue Applications). Il 24 marzo scorso è invece stato rilasciato (non in Italia) il primo utilizzo commerciale di questo modello, ovvero il chatbot Google Bard.
Le multinazionali americane non sono le uniche attive su questo fronte: la cinese Baidu il 17 marzo scorso ha annunciato il proprio chatbot denominato “Ernie Bot”. Il bot cinese sarebbe dovuto entrare ufficialmente in servizio lo scorso 27 marzo ma il suo lancio è stato rimandato per motivi sconosciuti.
Sebbene non sia ancora chiaro chi prevarrà alla fine nello sviluppo del sistema migliore, la grande attenzione che si sta creando attorno ai LLM è un chiaro sintomo delle potenzialità commerciali che porta con sé questo nuovo paradigma.
Timeline dei LLM (almeno miliardi di parametri) sviluppati
Fonte: A Survey of Large Language Models, Cornell University
I possibili impieghi aziendali
Tra le soluzioni in via di sviluppo è certamente degno di nota l’esperimento che in corso presso la banca d’affari statunitense Morgan Stanley, che sta dando in pasto al GPT-4 un’enorme mole di dati per valutarne la capacità di analisi ed elaborazione di consigli finanziari. Attualmente sono circa 300 i consulenti Morgan Stanley che stanno testando il sistema, ma nel prossimo futuro, se l’esperienza dovesse risultare positiva, la banca prevede di allargare lo strumento a tutti gli altri dipendenti.
Sempre in ambito finanziario è indicativo lo use case che riguarda la fintech statunitense Stripe. L’azienda ha deciso di integrare GPT-4 all’interno dei propri sistemi per automatizzare, a partire dall’informazioni presenti nel database, la creazione di report dettagliati e analisi specifiche.
Di segno totalmente diverso è l’impiego che GPT-4 sta trovando in Be My Eyes, società attiva nella creazione di soluzioni tecnologiche per mettere in contatto persone non vedenti o ipovedenti con volontari che li possano aiutare nelle attività quotidiane, come scegliere il prodotto giusto al supermercato o trovare il gate in aeroporto. Grazie alla nuova capacità di input visivo integrato da OpenAI in GPT-4, Be My Eyes sta sviluppando un “volontario virtuale” in grado di generare la comprensione di un’interazione umana.
Oltre i casi d’uso reali già citati, le attività potenziali che potrebbero essere svolte da GPT-4 sono innumerevoli. Ad esempio, sarà possibile realizzare un’app o un sito internet semplicemente chiedendo al bot di scrivere il codice al posto nostro, scrivere articoli e/o relazioni su argomenti complessi, sintetizzare banche dati e chiedere di interagire con soggetti stranieri in lingue differenti, scrivendo ad esempio contratti commerciali che rispettano le leggi estere o gestendo i rapporti con i clienti provenienti da ogni parte del mondo. Il riconoscimento delle immagini potrà inoltre potenziare i servizi di vigilanza, di gestione del magazzino e di controllo qualità. Tutto questo senza considerare che le future versioni di GPT potrebbero annoverare una nuova serie di strumenti in grado di allargare ulteriormente il raggio d’azione del software.
Le criticità da superare
La diffusione di modelli Large Language sembra quindi destinata a trasformare radicalmente sia il modo in cui le persone si approcciano alle interfacce virtuali sia gran parte delle attività aziendali. Il vero passo avanti rappresentato da GPT-4 risiede infatti nella possibilità di avere un assistente virtuale che, oltre a semplificare le procedure, “ragiona” ed è capace si svolgere compiti concettualmente complessi in totale autonomia.
I problemi privacy
Va comunque tenuto presente che le criticità dietro questi modelli sono ancora notevoli. Un esempio in questo senso riguarda il blocco per l’Italia che Garante della Privacy ha imposto a ChatGPT. Il sistema detiene e conserva un’enorme mole di dati personali anche sensibili: ciò impone certamente una riflessione su come questi vengono trattati e conservati. Il blocco sembrerebbe comunque in fase di risoluzione, con il garante che si è detto disposto a dare il via libera se la piattaforma se si adeguerà a specifiche condizioni relative al trattamento dei dati.
Gli errori di interpretazione
Un’altra falla per ora presente nel sistema è rappresentata dalle “allucinazioni”, ovvero degli errori di interpretazione che può portare il sistema a dare risposte completamente sbagliate. In quest’ottica sarà fondamentale lavorare sulle fonti dei dati. Oggigiorno il web è popolato di un ingente quantità di contenuti fake, che se risucchiati nel sistema potrebbero compromettere la qualità delle risposte date.
Va considerato inoltre che l’abuso di questi sistemi potrebbe portare ad un’atrofia di competenze che renderebbe individui e imprese dipendenti da questi strumenti. Infine, c’è il tema di come l’utilizzo degli assistenti virtuali si potrà conciliare con il lavoro umano e di quale sarà il suo impatto sull’occupazione.
Conclusioni
Al di là di tutte queste criticità, quello che appare evidente è che nei prossimi anni il perfezionamento di questi software porterà all’automazione di gran parte delle attività di concetto che attulamente sono ancora all’appannaggio esclusivo degli individui, trasformando di fatto il nostro modo di vivere e lavorare.