Uno degli esercizi preferiti dagli analisti dei processi innovativi è quello di descrivere tecnologie ritenute fortemente generatrici di cambiamenti, per poi procedere a stimare traiettorie di trasformazione più generali, sulla base delle quali effettuare stime quantitative degli effetti macroeconomici e occupazionali.
Molto spesso, inoltre, la notorietà degli autori e dei centri di ricerca induce processi di amplificazione della eco degli studi di partenza, mentre riceve meno enfasi lo studio della natura delle innovazioni che, è bene tenerlo sempre presente, sono destinate a produrre effetti difficilmente prevedibili e quantificabili ex ante, specie quando si tratta di cambiamenti “radicali”.
In questi casi, infatti, le diramazioni evolutive delle conoscenze, in relazione agli ambiti di applicazione con cui esse interagiscono, hanno implicazioni indefinite a priori, che dipendono da come i vari soggetti (entità individuali e collettive) sviluppano, modificano o producono conoscenze ex novo nei processi economico-sociali.
Le tre Sfere entro cui si sviluppa l’IA e la complessità dell’attività previsionale
Viviamo peraltro in sistemi socio-tecnici a scala globale, in cui tre sfere interagiscono e si influenzano reciprocamente, con una dinamica complessa ed effetti “emergenti”, non deducibili dall’analisi di singoli processi dinamici, né da indicatori comunque ricchi di enormi quantità di informazioni, trattate da una potenza computazionale in crescita esponenziale.
Le tre sfere sono quella fisica (geosfera, processi dinamici del nostro Pianeta), info-sfera (flussi globali di informazione) e la Noosfera[1], la sfera del pensiero umano, che sviluppa, modifica e cambia i processi fisici e informativi mediante una sorta di “coscienza collettiva” del Pianeta, a cui apparteniamo.
Alla luce di queste considerazioni, è da ritenere che il focus dell’analisi tecnologica debba essere la natura delle innovazioni, per cercare di comprenderne la portata dirompente e quindi delineare scenari generali, la cui ulteriore evoluzione dipende dalle interazioni tra geosfera, biosfera (il mondo vivente in continua trasformazione) e noosfera[2]. Questa affermazione non deve sorprendere, dal momento che l’evoluzione del pensiero umano e lo sviluppo tecnico-scientifico hanno influito profondamente sull’evoluzione della geosfera e della biosfera, e continueranno a farlo in modo solo parzialmente prevedibile. Le rivoluzioni filosofiche e scientifiche, che si sono succedute nella storia umana, lo dimostrano ampiamente, e l’imprevedibilità delle loro conseguenze ne è la prova. Chi poteva immaginare le implicazioni del concepire la Terra non più al centro dell’Universo (rivoluzione copernicana) oppure dell’idea-sogno del filosofo Leibniz, a cavallo tra sedicesimo e diciassettesimo, di dare una rappresentazione universale di tutta la realtà mediante combinazioni di 0 e 1? Il sogno è diventato realtà due secoli dopo, grazie a Gödel (anni ’30 del secolo scorso) e all’invenzione del linguaggio HTML Con l’informatica l’umanità ha “dato un linguaggio alle macchine” e con l’HTML ha creato un’immensa infrastruttura fisico-cibernetica (di controllo e comunicazione, Wiener, 1961; Lombardi, 2021), dove tutto ciò che accade nella geosfera, nella biosfera e nella noosfera può essere rilevato e influenzato. Gli sviluppi dell’Intelligenza Artificiale, infine, mettono a nostra disposizione uno strumento sempre più potente per amplificare al massimo nostre azione o pensieri.
È opportuno ribadire ancora una volta, allora, che bisogna comprendere la natura delle innovazioni tecnico-scientifiche e individuarne la portata più o meno dirompente, riflettendo sulle loro caratteristiche, senza enfatizzare aspetti peculiari per finalità propagandistiche (cosiddetta hype) e senza indulgere in tentazioni antropomorfiche, cioè contenendo la propensione umana ad attribuire caratteristiche “umane” alle creazioni della nostra mente. In altri termini, la tendenza a cadere in vere e proprie “allucinazioni” nel senso esplicitato da Gibson (2000: 268): “Cyberspace. A consensual hallucination experienced daily by billions of legitimate operators, in every nation”.
Le riflessioni precedenti sono sviluppate allo scopo di affrontare le questioni poste dall’enorme successo e dalle notevoli performance degli LLMs (Large Language Models).
Cerchiamo allora di enucleare qualche ulteriore elemento utile a comprendere la natura di questo importante tipo di innovazione, traendone poi una prima -ovviamente provvisoria- valutazione complessiva.
Aspetti basilari dei LLMs
Ricordiamo sinteticamente che l’Intelligenza Artificiale Generativa (d’ora in poi Generative AI), nelle varie versioni come GPT-n e la ChatGPT, consiste in modelli linguistici di elaborazione del linguaggio umano, creati in modo tale da combinare molteplici componenti: testi scritti, immagini, filmati, varie forme di comunicazione umana. Due delle più importanti componenti fondamentali degli LLMs sono:
- l’architettura denominata transformer[3], che consiste nel processare testi in modo bidirezionale, nel senso che si analizza una parola o un suo frammento (token) prima e dopo la sua apparizione in una frase, all’interno di un enorme database di allenamento, raccogliendo così informazioni sulle possibili combinazioni.
- Il meccanismo di self-attention, o semplicemente attention, il quale mette a fuoco e attribuisce rilevanza delle parti contenute nelle sequenze di input. In breve, una sorta di parziale informazione contestuale. Per questa via esso enuclea le strutture grammaticali ed anche aspetti attinenti al significato di espressioni scritte.
Il sistema algoritmico sostanzialmente non si allontana dall’effettuazione di correlazioni statistiche tra frammenti linguistici, composti mediante stime probabilistiche, il che in gergo è definito “next word predicting”, come è chiaramente esplicitato in uno degli studi di base, elaborati da Microsoft Research (Bubeck et al., 2023: 43, 90, 94). In esso si indica la necessità di superare i limiti della pur importante automazione di compiti e procedere a sviluppare forme di “interazione con il mondo”, che è “one of the key aspects of intelligence ” (ivi: 43).
Tecnicamente, poi, il “collage di frammenti” coordinati avviene mediante moltiplicazioni di matrici contenenti righe e colonne di funzioni input-output dei pixel riferiti a ciò che si intende rappresentare. Ciò è precisamente quello che ha argutamente osservato su Twitter il 5 Ottobre 2022 Demis Hassabis, AD di DeepMind: “Turns out everything is a matrix multiplication from computer graphics to training neural networks ”.
La ChatGPT, AI “conversazionale” che risponde alla linea di comando dell’utente, in modo friendly ed esauriente[4], tende a poi a rafforzare l’inclinazione umana “to casually ascribe intelligence to anything and everything labeled AI” (Ray, 2022).
La caratteristica fondamentale dei software conversazionali è dunque quella di poter combinare una gamma estremamente ampia di input, estraendo da database di allenamento co-occorrenze di elementi tali da presentarsi di elevata attendibilità, sul piano quantitativo e qualitativo,
Un altro aspetto cruciale da mettere in risalto è la grande versatilità dei modelli linguistici in questione, che si basano su intersezioni tra un numero indefinito[5] di domini di informazioni, producendo esiti apparentemente strabilianti se comparati alla capacità di elaborazione umana, ovviamente basata di basi conoscitive molto più contenute. Il fatto che gli LLMs possano esercitare i loro algoritmi generativi su campi così differenti permette loro di definire similarità e connessioni irraggiungibili dalle capacità computazionali umane.
Le attività umane potenzialmente interessate dall’evoluzione dei LLM
Soffermiamoci allora su una questione cruciale, cioè quella delle attività umane potenzialmente interessate, lasciando da parte quella relativa alla possibilità o meno di potersi trovare di fronte a entità “senzienti”.
La domanda a cui cerchiamo di rispondere è la seguente: qual è la natura e l’estensione possibile delle attività umane su cui l’IA conversazionale presumibilmente potrà espandere la propria sfera di influenza? Dalla risposta dipenderà la valutazione circa la natura dirompente o meno della stessa ondata innovativa. Adoperiamo questo termine per una ragione fondamentale: sistemi algoritmici come gli LLMs cercano di catturare aspetti cruciali del linguaggio umano, quali la struttura grammaticale e sintattica, insieme a correlati semantici, che sono peculiarità tali da rendere il linguaggio umano fenomeno unico nella biosfera.
La “spazio generativo” degli LLMs
Le implicazioni di quanto illustrato nei punti precedenti permettono di formulare ipotesi attendibili sulla gamma di attività umane che saranno coinvolte dal recente sviluppo degli LLMs.
La nostra riflessione ha come punto di partenza ineludibile la fondamentale novità insita in quanto affermato alla fine del punto 2: siamo di fronte a sistemi di software che tentano di riprodurre il linguaggio umano. Non si tratta, quindi, solo di modelli delle attività umane, simulate nelle loro componenti cruciali, siano esse di natura puramente meccanica oppure parzialmente cognitiva. È noto che gli sviluppi dell’IA negli ultimi anni hanno mirato sempre più a sostituire funzioni cognitive umane, come è implicito nella espressione sintetica “algorithmic decision making”, cioè rendere algoritmici i processi decisionali ad ogni livello, individuale e collettivo, grazie alla potenza computazionale e ad algoritmi in grado di simulare processi elaborativi tipici della mente umana. Studiosi e centri di ricerca sono infatti andati ben oltre l’obiettivo di far svolgere a sistemi di macchine compiti faticosi, ripetitivi e stancanti. È infatti prevalso il trend di creare sistemi di algoritmi capaci di cercare la soluzione di problemi, progettare e governare processi, prendere decisioni operative, tendenzialmente strategiche. Lo scenario emerso è quello di un orizzonte strategico-operativo, che dalla produzione si è esteso alla sfera sociale su scala planetaria, con apparati algoritmici sempre più importanti e costitutivi delle attività svolte da umani. Ciò è potuto accadere perché la ricerca tecnico-scientifica e la “corsa agli armamenti” tecnico-scientifici, innescata e sostenuta dal perseguimento di finalità economiche, hanno generato spinte irresistibili verso sempre nuovi strumenti, capaci di simulare e svolgere compiti finora ritenuti propri degli esseri umani. La “corsa” verso la creazione di agenti artificiali sempre più “intelligenti” non ha però sostituito integralmente gli umani, si è anzi verificato il paradosso che questi ultimi sono rimasti essenziali per svolgere attività ripetitive, faticose, distruttive dal punto di vista fisico e mentale (Lombardi e Macchi, 2023), proprio per consentire l’enorme espansione del cyberspace, controllato da quelli che Petit (2020: 167) ha chiamato “moligopoli”, cioè pochi grandi gruppi oligopolistici che competono nell’info-sfera e adottano pratiche di tipo monopolistico[6].
La proliferazione di LLMs rappresenta un momento importante, perché i modelli linguistici mirano a riprodurre e, almeno nelle intenzioni, a esprimere forme di pensiero tipicamente umane, traendo dall’infinità di usi del nostro linguaggio –espresso in una miriade di forme e di contesti- strutture linguistiche formali (morfologia, grammatica, sintassi).
È chiaro che, se realizzato appieno, l’obiettivo della Generative AI non si configura come un semplice spazio generativo, bensì come una vera e propria impresa tecnico-scientifica diretta a creare uno spazio cognitivo e concettuale, che andrebbe oltre l’orizzonte odierno degli stessi umani. In altri termini, saremmo ora di fronte alla possibilità, ancora solo teorica, di esercizio di vere e proprie funzioni intellettive non umane, Tralasciamo di approfondire l’eventuale paradosso di una umanità che cerca di creare un peculiare universo cognitivo, in cui correrebbe il rischio di avere un ruolo subordinato, per mettere in luce alcune conseguenze a breve che gli LLMs possono indurre nelle attività umane. Le riflessioni che seguono portano ad un esito su cui vale la pena di riflettere, perché si profila uno spazio cognitivo globale, che evolve in base a processi di feedback degli utenti, processi e azioni intraprese sulla base delle elaborazioni svolte da modelli linguistici.
Gli LLMs e le attività umane: alcuni campi applicativi
In vari domini conoscitivi ed emozionali, i modelli linguistici potranno svolgere un enorme ruolo propulsivo. Si pensi alla sfera ricreativa e personale, dove tools di Generative AI possono –in tempi rapidissimi- creare territori immaginari tendenzialmente senza limiti, in quanto basati su mix di vari spazi che si auto-espandono, partendo da database in continua evoluzione. Non occorre forse che gruppi di programmatori e sviluppatori si adoperino per ampliare la propria fantasia, né è necessario mobilitare schiere di programmisti per sceneggiature di film o serial televisivi[7].
I sistemi algoritmici, dotati di una crescente potenza computazionale e di basi arricchite dai feedback degli utenti, sembrano non avere limiti[8] nell’espansione della capacità di attrarre la domanda di beni e servizi. I chatbot generativi hanno anche un’altra potenzialità di grande rilievo: sono in grado di generare contenuti combinando video, musica, immagini e testi sia con stili creativi propri di letterati, artisti e designer, sia con tentativi di comporre aspetti stilistici in nuovi orientamenti estetici, magari “catturati” dall’evoluzione dei gusti e delle preferenze della popolazione, a loro volta opportunamente indotti da meccanismi di orientamento top-down (echo-chamber, filter-bubbles, induced emotional dynamics, e così via) . A questo riguardo, però, c’è da porre l’attenzione su un altro aspetto: gli strumenti di Generative AI consentono di elaborare simultaneamente strategie di marketing personalizzato, grazie alla raccolta sistematica e veloce di informazioni, relative ai profili individuali, il cui sviluppo viene “stimolato” da apposite strategie di “neuromarketing”, magari elaborate mediante chat-generative[9].
Il trend verso la personalizzazione delle strategie di attrazione della domanda può estendersi a qualsiasi ambito, come indica quanto sta avvenendo negli Usa nell’ambito dei processi formativi. Il diffuso ricorso a ChatGPT da parte di un numero crescente di giovani ha provocato il crollo in borsa di Chegg, società specializzata in servizi formativi di supporto per studenti (Singh, Reuters, 2023). Ciò sta suscitando inquietudine e perplessità nei formatori, sia delle Università che delle scuole superiori, dal momento che sorgono problemi di attendibilità dei lavori personali degli studenti, mentre diventa necessario introdurre radicali novità da introdurre nei processi formativi e nelle attività svolte dai formatori. Questi ultimi dovranno infatti con tutta probabilità fronteggiare sfide professionali del tutto nuove, che richiederanno nuovi modi di pensare l’insegnamento, il rapporto tra studio e strumenti di acquisizione della conoscenza, infine le strutture e le modalità di interazione nelle comunità scolastiche.
Il settore della giustizia e delle professioni legali
Il settore della giustizia e delle professioni legali in genere certamente non saranno indenni dalla diffusione di chatbot generativi se, oltre ad aver brillantemente superato gli esami per professioni legali e para-legali negli Usa (Sanderson, 2023), GPT-4 può elaborare scenari previsionali circa gli esiti di processi, sulla base del “curriculum decisionale” di ciascun giudice su varie materie, nonché delineare trend socio-territoriali in tema di criminalità[10]. In questa prospettiva è chiaro che molte attività e professioni nel campo della giustizia penale e civile saranno soggette a mutamenti profondi, se si pensa alla possibilità di raccogliere e sistematizzare quantità rilevanti di informazioni per elaborare strategie di politica giudiziaria, difesa degli assistiti, gestione delle problematiche emergenti in tema di criminalità economico-finanziaria. Appaiono altresì evidenti le grandi potenzialità di cui le istituzioni preposte alle materie indicate potranno beneficiare e le ripercussioni positive per l’intera società. Tutto ciò dovrebbe indurre le comunità umane a riflettere sull’urgenza di diffondere trasversalmente in tutte le fasce sociali una nuova cultura della consapevolezza della potenza degli strumenti di Generative AI oggi disponibili, in modo che nessuno sia colto impreparato da eventi incogniti.
Questa considerazione acquista un’importanza particolare se si pensa ai rivolgimenti che possono verificarsi nel mondo della medicina, dato che nello spazio generativo degli LLMs non solo si potrà ridurre i costi e accelerare la produzione di sostanze medicali, ma anche e soprattutto sarà possibile inventare combinazioni di amminoacidi, che si legano a cellule cancerogene per neutralizzarle senza aver bisogno di conoscere prima proteine efficaci (Ray, 2023). Di rilievo è poi che questo si aggiunge (e costituisce una svolta rispetto) ai rilevanti avanzamenti già verificatisi nella bioinformatica. Fino a poco tempo fa erano state infatti determinate circa 100.000 dei miliardi di strutture delle sequenze di proteine, ma un modello computazionale radicalmente nuovo (Jumper et al., 2021: 583) consente di “prevedere regolarmente strutture di proteine con accuratezza atomica anche i casi in cui non sono conosciute strutture simili” (trad. nostra)[11], in tal modo aumentando lo “spazio proteico” conoscibile. È chiaro che siamo in presenza di mutamenti tali da modificare una serie indefinita di attività in campo medicale: funzioni di laboratorio, analisi mediche predittive, modelli potenzialmente esplicativi di anomalie genetiche e dei processi insorgenza di malattie.
I campi di applicazione qui indicati, che si aggiungono a quelli descritti in un precedente contributo inducono a porre alcuni domande basilari, a cui inizieremo a rispondere facendo riferimento a recenti studi.
Gli LLMs e le ripercussioni sulle tradizionali stratificazioni sociali
Non vi sono dubbi che i numerosi modelli linguistici più diffusi, tra cui ovviamente i 12 considerati quelli “top” del settore, avranno un impatto esteso e profondo su praticamente tutte le professioni intellettuali, proprio perché tendono a catturare il pensiero umano, che si esprime attraverso competenze linguistiche formali, cioè regole di composizione del linguaggio, strutture grammaticali e stereotipi rappresentativi, attraverso i quali si sviluppano i nostri processi di elaborazione conoscitiva e comunicazione. La capacità degli LLMs di catturare strutture e modalità di espressione linguistica viene conseguentemente costruita e ampliata, come nel caso esemplare della bioinformatica, con metodi di “quasi-sperimentazione statistica”, per così dire, nel senso che nello spazio generativo vengono create -su basi probabilistiche- combinazioni di idee-concetti-ipotesi, così come sono espresse in testi scritti. Gli effetti sono necessariamente indefiniti ex-ante: possono essere sia validi che errati, in tutto o in parte. È però certo che siamo in presenza di un particolare universo linguistico in forte espansione, grazie alla potenza computazionale dispiegata. Appare quindi fondato ritenere che siamo in presenza di una possibile ondata innovativa radicale, che può incidere in modo significativo sulle modalità di evoluzione del pensiero umano.
Le conseguenze per gli umani impegnati nelle attività interessate dall’ondata innovativa sono solo parzialmente definibili a priori, ma sicuramente notevoli da due punti di vista: 1) supporto e/o sostituzione a professioni intellettuali, 2) variazioni nella configurazione delle stratificazioni professionali e del conseguente status sociale.
Lo studio di Brynjolfsson
Queste affermazioni si basano essenzialmente su quanto emerge da un interessante studio degli effetti prodotti dall’impiego di Generative AI su: 1) funzionamento di un’impresa, 2) evoluzione di competenze delle varie fasce di addetti, 3) dinamiche retributive e caratteristiche dei rapporti di lavoro.
L’analisi, sviluppata da Brynjolfsson et al. (2023), riguarda una sola impresa, che è inserita nella lista delle prime 500 imprese Usa in base al fatturato[12] e quindi costituisce una base empirica limitata. La ricerca fornisce, tuttavia, elementi conoscitivi di grande interesse e originalità, che ovviamente richiedono conferme mediante ulteriori indagini. Gli studiosi in questione analizzano l’impatto della Generative AI sulla produttività degli addetti di una società di software, che fornisce servizi per attività di business. I risultati principali dell’impiego di ChatGPT sono così sintetizzabili:
1) aumento della produttività individuale del 13,8%, sia nel risparmio di tempo che ciascun lavoratore impegna nelle chat individuali, sia nel numero di chat intrattenute per ora, sia infine in un piccolo aumento delle chat risolte positivamente (ivi, par. 4.2).
2) Incremento considerevole delle performance produttive degli addetti con minore competenza ed esperienza, unitamente al fatto che i nuovi entranti hanno un tempo di apprendimento molto rapido (par. 4.3).
3) Effetti più marcati per le persone low-skill rispetto a quelle high-skill. (par. 4.5.2).
4) Miglioramento del rapporto tra clientela e gli erogatori dei servizi, come si evince dal tenore degli scambi di messaggi nelle chat. In breve, un indice di un maggior grado di soddisfazione della clientela (par. 4.6.1). Questo fatto è connesso anche a cambiamenti organizzativi, dal momento che l’impresa –caratterizzata da un forte turnover degli addetti- ha visto diminuire il tasso di abbandono, mentre è diminuita la probabilità degli utenti di chiedere l’intervento di “superiori”. In altri termini, i nuovi assunti apprendono di più e più velocemente, incontrando meno problemi nella loro formazione e quindi favorendo la dinamica interattiva con chi richiede assistenza.
Da questa analisi si possono dedurre due implicazioni significative:
1) l’utilizzo di modelli linguistici può generare un impatto favorevole sulla produttività dei lavoratori, in contrasto con quanto risulta da gran parte degli studi esistenti sulla diffusione innovativa negli ultimi decenni.
2) Gli effetti appaiono più significativi per occupati con minori competenze, il che comporta che si riducono le differenze di performance tra occupati con differenti skills. Saremmo quindi di fronte ad un possibile processo di “approssimazione verso l’alto”, nel senso che grazie ad “AI chatbot” le prestazioni tra le due tipologie di operatori si avvicinano. Come afferma un po’ ironicamente Greg Rosalsky, autore di report per NPR Make Money, dopo aver raccolto le considerazioni di Brynjolfsson: “ If anybody off the street can now come in and — augmented by a machine — start doing work at a higher level, maybe the specialized skills and intelligence of people who were previously in the upper echelon become less valuable. So, yeah, AI could reduce inequality by bringing the bottom up. But it could also reduce inequality by bringing the top and middle down, essentially de-skilling a whole range of occupations, making them easier for anyone to do and thus lowering their wage premium” Rosalsky, 2023a)[13].
In teoria, quindi, si potrebbe ipotizzare una possibile traiettoria verso un livellamento conoscitivo e salariale, in seguito alla diffusione di LLMs, che vanno oltre i modelli algoritmici basati su istruzioni che riproducono sequenze di operazioni formalizzabili (compiti di routine). I nuovi sistemi, basati invece su competenze linguistiche formali (vedi sopra), possono catturare anche elementi contestuali, di natura tacita, espressi nelle strutture linguistiche e quindi riprodotte dai modelli linguistico-computazionali. Se a questo uniamo l’aumento della produttività, sembrerebbe emergere il trend verso una riduzione delle disuguaglianze, che sono com’è noto, enormemente aumentate negli ultimi decenni in tutti i Paesi del mondo.
In realtà è doveroso essere prudenti, perché una così limitata evidenza empirica non legittima generalizzazioni, ma ciò non impedisce di delineare scenari, come fanno Brynjolfsson e Autor in resoconti di interviste, contenuti in Roskalsky (2023a, 2023b).
Bynjolfsson (in Rosalsky, 2023a) da un lato sostiene che macchine “più intelligenti” come gli LLMs possono favorire i lavoratori con minori basi conoscitive ed esperienze, al tempo stesso riducendo i vantaggi di coloro che sono oggi nei gradini più elevati della scala delle professionalità. Ciò significa una traiettoria verso una minore disuguaglianza e una differente composizione tecno-sociale, di cui è peraltro difficile immaginare le componenti specifiche in un futuro più e meno ravvicinato.
Naturalmente è possibile, secondo Brynjolfsson, anche uno scenario meno positivo, caratterizzato da una disuguaglianza maggiore di quella odierna, perché le società più importanti nel campo dell’Intelligenza Artificiale possono incrementare la propria posizione dominante, in termini sia di risorse finanziarie che di macchine intelligenti, con le quali rendere più produttivi i lavoratori e quindi aver bisogno di un minor numero di essi.
Autor delinea due scenari analoghi (in Rosalsky, 2023b). In quello “roseo” sempre più persone potranno svolgere attività attualmente svolte da coloro che appartengono alle professioni più elevate per basi conoscitive possedute e remunerazioni percepite. Si tratterebbe, quindi, di un orizzonte in cui “AI makes élite expertise cheaper and more accessible”. Al tempo stesso, inoltre, prodotti e servizi costeranno meno e nuove opportunità si apriranno per un sempre maggior numero di persone. Autor però avverte che, affinché ciò avvenga, sarà necessario una ristrutturazione profonda del sistema formativo per consentire a tutti di conoscere adeguatamente le nuove tecnologie. È altresì evidente che, per favorire prospettive favorevoli nel mondo che si profila, occorre l’adozione di nuove politiche da parte delle Istituzioni, del mondo degli affari, delle Università, del mondo del “No profit”.
Autor delinea anche uno scenario negativo, dove l’AI può finire nelle mani sbagliate, che potrebbero usarla per diffondere in modo amplificato informazione distorta o falsa, oppure ancora riuscire a controllare “sistemi critici” dal punto di vista della sicurezza individuale e collettiva[14]. Nello stesso scenario Autor colloca l’ipotesi di un incremento ella disuguaglianza, derivante dal fatto che chi possiede enorme potenza computazionale può diventare estremamente ricco e pertanto produrre un mondo distopico: “a world where you just need a few super experts overseeing everything and everything else is done by machines”.
Autor adduce comunque ragioni per ritenere più probabile il primo scenario. Innanzitutto, gli umani hanno talenti, capacità e competenze che le macchine non hanno, anche perché non possono interagire con il mondo fisico. Gli umani hanno, inoltre, doti differenti: mentalità adattativa nella risoluzione die problemi; conoscenze di senso comune e quelle che derivano dalle interazioni sociali. Egli infine sottolinea come il problema oggi sia il divario tra nuovi lavori da svolgere e il numero delle persone disponibili e adatti, a causa di fattori demografici e tecnico-culturali (nuove competenze da formare)[15].
Si tratta chiaramente di uno dei grandi problemi che si presentano durante le fasi di profonda trasformazione, quando ondate innovative dalla portata imprevedibile innescano cambiamenti a cascata nei sistemi economici. Uno degli elementi di maggiore novità oggi è che questi effetti si sviluppano nell’intero globo terrestre (Lombardi, 2021). La storia umana è costellata di sviluppi tecnologici[16], che hanno modificato radicalmente il modo di vivere e di interagire degli umani. Si pensi, ad esempio, a quello che è accaduto dopo la “rivoluzione agricola” (più di una, in realtà) e ai mutamenti indotti dalla rivoluzione industriale. Come argomentano in modo convincente Acemoglu e Johnson (2023), è prevalso –e tende attualmente a prevalere- il mito (narrative) confortevole dell’equazione “tecnologia uguale progresso”, sostenuto e quasi unanimemente accettato in ragione dell’effettivo miglioramento delle condizioni di vita di un numero crescente di popolazioni fino ai giorni nostri[17]. Nel ripercorrere l’ultimo millennio di evoluzione tecnologica, gli autori in questione mettono in luce come il progresso tecnologico sia sempre stato caratterizzato dalla tendenza a generare benefici per una élite a spese della maggior parte della popolazione. Sono state le forze sociali contrastanti (countervailing forces), sviluppatesi endogenamente alle società, a ridurre gli squilibri rendendo meno asimmetrica l’evoluzione tecno-economica, riducendo così i rischi e le possibilità di conflitti distruttivi, forieri di un’implosione sociale. La ricostruzione storica che essi effettuano degli ultimi due secoli lo mostra molto bene, fino al prevalere dell’ordine neo-liberale, a partire dagli anni ’70, che ha generato sia la stagnazione generale dei salari e l’elevata concentrazione di ricchezza nell’élite economico-finanziaria, sia la crisi del 2008-2009, la più severa dagli anni ’30 del XX secolo.
Nell’era attuale, con l’ondata innovativa in atto, che abbiamo definito di natura radicale, sembrano appropriati i suggerimenti proposti da Acemoglu e Johnson in merito a forze contrastanti da attivare per contenere squilibri e asimmetrie potenzialmente devastanti:
1) diffondere conoscenze nel corpo sociale, per contrastare il mito che la dinamica tecnologica comporti automaticamente progresso sociale.
2) Sostenere in ogni modo le forze contrastanti, quali organizzazioni della società civile, attivisti per diritti civili, nuove forme di organizzazioni a difesa dei diritti dei lavoratori.
3) Generare nuove idee e disegni di riforma sociale, grazie a centri di ricerca dedicati e a soggetti istituzionali in grado di elaborare nuove politiche, dirette a sviluppare uno sviluppo tecnologico con al centro il benessere dell’umanità.
Conclusioni
Ci permettiamo di aggiungere che una delle priorità fondamentali dovrebbe essere la progettazione di un sistema formativo del tutto nuovo, commisurato alle sfide poste da un mondo fisico-cibernetico incentrato sull’impiego esteso degli LLMs. Quando si diffondono modelli linguistici che catturano e riproducono –anche se solo parzialmente- il modo di pensare umano è in gioco il futuro dell’evoluzione cognitiva dell’umanità. La forza e i limiti della dinamica tecnologica odierna alimentano speranze per un futuro non distopico, ma occorre inventare nuove strategie e strumenti di contrasto.
Bibliografia
Acemoglu D., Johson S., 2023, Power and Progress: Our Thousand Year Struggle Over Technology and Prosperity, Joh Murray Press.
Autor D.H., 2013, The Growth of Low-Skill Service Jobs and the Polarization of the US Labor Market, American Economic Review, Vol. 103, N. 5.
Brynjolfsson E., Li D., Raymond L.R., 2023, Generative AI at Work, NBER Working Paper, April
Gapper J., 2023, Writers vs AI Bots is more than a Hollywood drama, Financial Times, 5 May.
Gibson W., 2000, Neuromancer, An ACE BookHall E., 2019, Neuromarketing.What You Need to Know, Harvard Business Review, Special Issue, January, 64-70.
Hassabis D. et al., 2022, Discovering faster matrix multiplication algorithms with reinforcement learning, Nature, 610, 47–53.
Jumper J. et al., 2021, Highly accurate protein structure prediction with AlphaFold, Nature, Vol. 596, 26 August, 583-592.
Jumper J., et al, 2022, Accelerating Large Language Model Decoding with Speculative Sampling, arXiv:2302.01318v1 [cs.CL], 2 February.
Lombardi M., 2021, Transizione e Universo fisico-cibernetico, Firenze University Press.
Lombardi M., Macchi M., 2023,Lavoro e dinamica tecnologica: incubi, illusioni, aspettative, in corso di stampa.
Noy, S., Zhang W., 2023, Experimental Evidence on the Productivity Effects of Generative Artificial Intelligence, Working Paper (not peer reviewed), 2 March.
Petit N., 2020, Big Tech and the Digital Economy: The Moligopoly Scenario, Oxford University Press
Ray T., 2022, AI’s true goal may no longer be intelligence, ZDNet, 28 October.
Ray T., 2023, Generative AI could lower drug prices. Here’s how, ZDNET, 1 March.
Rosalsky G., 2023a, This company adopted AI. Here’s what happened to its human workers, Planet Money, 5 May.
Rosalsky G., 2023b, What if AI could rebuild the middle class?, Planet Modey, 9 May.
Sanderson K., 2023, “GPT-4 is here: what scientists think”, Nature, 615, 30 March.
Singh M:, 2023, Edtech Chegg tumbles as ChatGPT threat prompts revenue warning, Reuters, 2 May.
Teilhard de Chardin P: 2004, The future of Man, Image Books DoublDay.
Wiener
[1] La “Noosfera” è un concetto elaborato dal filosofo e paleontologo gesuita Teillhard de Chardin (2004: 151): “an added planetary layer, an envelope of thinking substance, to which, for the sake of convenience and symmetry, I have given the name of the Noospher…[From noos, mind: the terrestrial sphere of thinking substance]”.
[2] Nella noosfera di Teillhard de Chardin includiamo la info-sfera, generata dalla pervasività dei dispositivi computazionali e dalla connettività ubiquitaria (mondo iperconnesso).
[3] La tecnica transformer non è nuova, essendo stata inventata anni fa in Google da Yoshua Bengio, Professore di Computer Science all’Università di Montreal e direttore scientifico del Montreal Institute for Learning Algorithms (MILA). Nel 2018 ha ricevuto il Turing Award insieme Jeff Hinton e Yann LeCun.
[4] Rispetto a quanto di norma quest’ultimo sa ed esprime in query ben definite.
[5] Le società proprietarie degli LLMs mantengono la riservatezza circa i set di pre-addestramento.
[6] Sono le entità comunemente definite Tech Giants, ma sarebbe opportuno riferirsi ad essi come Techno-Giants, perché le loro strategie tecnico-scientifiche sono intrinsecamente connesse a strategie con grandi obiettivi di profittabilità.
[7] Un primo effetto è stato il primo sciopero, dopo 15 anni, degli sceneggiatori di Hollywood, il cui lavoro e compenso sono in forte riduzione proprio per il crescente impiego di AI bots da parte degli studios (Gapper, 2023).
[8] Ciò vale se non consideriamo una serie di costi umani e materiali, tra cui in primis quelli energetici
[9] Per una introduzione al neuromarketing si veda (Hall, 2019: 64): “Neuromarketing” loosely refers to the measurement of physiological and neural signals to gain insight into customers’ motivations, preferences, and decisions, which can help inform creative advertising, product development, pricing, and other marketing areas
[10] È bene tenere presente che i sistemi di AI incorporano i bias dei set di addestramento, com’è ampiamente dimostrato dai casi clamorosi di profili criminali definiti in base al colore della pelle.
[11] Jumper et al (2022) hanno anche elaborato un algoritmo di accelerazione di architetture transformers degli LLMs con riduzione dei costi computazionali e aumento della velocità di elaborazione parallela.
[12] Si tratta della pubblicazione annuale “Fortune 500”.
[13] Sembrerebbe confermare il trend indicato un esperimento, effettuato da due studenti di Autor, uno degli studiosi più noti a livello internazionale in tema di Job polarization (Autor, 2013). Noy e Zhang (2023) hanno sottoposto 444 college-educated professionals a prove di scrittura, dando a metà di essi –in modalità random- la possibilità di utilizzare ChatGPT. L’esito è stata una crescita media della produttività, in seguito alla diminuzione della disuguaglianza, dovuta al fatto che ChatGPT ha favorito i lavoratori con minori abilità, con stimoli verso la generazione di idee e contenuti più ricchi di input.
[14] Bisogna tenere presente che gli LLMs sono in grado di leggere e completare codici e quindi di penetrare barriere di cybersecurity in entità di importanza strategica.
[15] Il suo discorso è riferito agli USA, ma non è arbitrario ritenere che valga per tutte le società odierne.
[16] Come è accaduto negli ultimi 1000 anni, analizzati da Acemoglu e Johnson.
[17] Gli indicatori frequentemente utilizzati sono il miglioramento dei sistemi di alimentazione, l’allungamento della vita media, l’aumento della popolazione, e così via, su cui esiste una letteratura statistico-economica sterminata.