Per raccontare il fenomeno, qualcuno ha scomodato addirittura Lenin: “Ci sono dei decenni in cui non accade nulla. E poi delle settimane in cui accadono decenni”. Un’iperbole, e tuttavia il fermento seguito all’apparizione sulla scena tecnologica di ChatGPT, il modello linguistico basato sul deep learning di OpenAI, è qualcosa che non si vedeva da tempo.
All’improvviso, più di un milione di persone si sono registrate al servizio (ancora in demo) e hanno scoperto di poter avere a disposizione, con pochi click, una specie di genio della lampada, un mago dei testi.
Un saggio, un articolo, il copione di un film, le risposte di un quiz ma anche del codice informatico: non c’è cosa che con un breve input testuale nella finestra da chat del programma non si possa generare.
Con le dovute cautele: talvolta le risposte non sono del tutto esatte. Come avverte un disclaimer sul sito di OpenAI, il modello sta ancora venendo perfezionato; l’accesso gratuito al momento concesso agli utenti, del resto, a questo serve: è una specie di prova sul campo per scovare e correggere eventuali difetti o punti deboli.
Inesattezze a parte, un aspetto cruciale è quello di impedire che ChatGPT venga usato per scopi nocivi: dalla disinformazione, al fornire istruzioni su come fabbricare una bomba, al bullismo online. Gli sviluppatori si sono sforzati di impedirlo, ma il test in corso sta evidenziando come, con un po’ di creatività, sia possibile superare le protezioni.
Alla richiesta di spiegare come bullizzare una persona, ad esempio, il programma si rifiuterà; formulando la richiesta come un’ipotesi di scuola per un esercizio contro il bullismo, però, fornirà prontamente una risposta.
ChatGPT, perché ora l’intelligenza artificiale ci stupisce e spaventa
ChatGPT, un dibattito (ovviamente) polarizzato
Come spesso accade nel caso di innovazioni dirompenti, si sono formati rapidamente due schieramenti. C’è chi dice che ChatGPT porterà via, in tutto o in parte, il lavoro agli insegnanti (come dare ancora compiti a casa ed essere sicuri che il tema sia farina del sacco dello studente?), agli avvocati, ai social media manager, agli addetti marketing, agli sceneggiatori e chi più ne ha, più ne metta.
Secondo questa visione, in combinazione con altri programmi di Generative AI – ossia quei programmi che non si limitano a individuare schemi predittivi nei dati, ma “generano” contenuti veri e propri – che fabbricano video, immagini, suoni, codice informatico come DALL-E2, Midjourney, Stable Diffusion, ChatGPT sarebbe destinato a rimpiazzare ed automatizzare gran parte del lavoro umano in campo creativo.
ChatGPT, solo una “anteprima” di progresso
C’è chi sottolinea invece come questi timori siano quantomeno prematuri e il programma sia ancora troppo “stupido” per rappresentare davvero una minaccia. Lo stesso capo di OpenAI ha contribuito a smorzare un po’ l’eccitazione del momento: “ChatGPT è incredibilmente limitato, ma abbastanza buono in alcune cose da creare un’impressione fuorviante di grandezza”, ha detto in un tweet del 10 dicembre. “È un errore fare affidamento su di esso per qualsiasi cosa importante in questo momento. È un’anteprima del progresso; abbiamo molto lavoro da fare sulla robustezza e sulla veridicità”.
Fra questi due estremi si colloca chi ritiene ChatGPT uno strumento già sufficientemente potente e utile, ma destinato non tanto a rimpiazzare gli umani quanto a semplificare loro il lavoro, liberando energie creative finora “costipate”.
Se un chat bot minaccia il titano Google: la lezione del flop Kodak
Il dilemma del copyright
Al netto di visioni apocalittiche e integrate tutte da dimostrare, si intravedono già alcuni snodi concreti su cui indagare. Uno è quello del diritto d’autore e in generale dell’attribuzione di paternità dei contenuti prodotti dai software di generative AI, per distinguerli da quelli frutto in gran parte del lavoro umano. L’esempio classico è appunto quello dei compiti a casa degli studenti: come evitare che si liberino dell’incombenza semplicemente ricopiando quando scritto dal software? Si dirà: ma copiano già da Wikipedia e da Internet in generale. Vero, ma in questo caso gli insegnanti possono contrastare il fenomeno con dei software anti-plagio.
Non così nel caso della generative AI. È vero che anche i testi di ChatGPT non nascono dal nulla: il programma è stato addestrato su miliardi di testi esistenti, da cui individua le parole che statisticamente hanno probabilità di seguire ad altre in una specifica frase; una volta formulati per esteso però, i contenuti di ChatGPT sembrano in tutto e per tutto originali.
Pare che i tecnici di OpenAI stiano lavorando a una possibile soluzione: incorporare nei testi prodotti dei watermark, dei contrassegni segreti che rivelino quando un testo è stato prodotto da una AI e quando no. Il watermark consisterebbe in particolari sequenze di testo e punteggiatura e sarebbe impercettibile per i normali utenti, ma decifrabile da chi possiede strumenti appositi.
Il tema del copyright riguarda anche gli artisti e le opere d’arte in generale. Software come i già citati DALL-E 2 e Stable Diffusion o Lensa, possono creare disegni e animazioni che ricalcano lo stile di un certo artista. Lo fanno proprio perché sono stati tarati su esempi di opere originali, di cui indentificano e poi riproducono gli elementi caratteristici.
Qui subentrano due problemi; primo: chi ha dato agli sviluppatori il permesso di analizzare queste immagini; secondo: se una AI è in grado in pochi secondi di generare un’immagine nello stile di un certo artista, cosa accade a quest’ultimo (che magari ha impiegato anni per sviluppare una sua riconoscibilità), può ancora trovare un mercato? Le opinioni divergono.
Geopolitica e modello di business
Un altro tema chiave è quello del modello di business. Come accennato, al momento l’utilizzo di ChatGPT è gratuito. Reuters ha però rivelato che i suoi creatori ritengono di poter realizzare 200 milioni di dollari di profitti l’anno prossimo e un miliardo nel 2024.
La somma comprende anche i ricavi di DALL-E2, sempre opera di OpenAI. Da quale fonte arriveranno i soldi non è chiarissimo: al momento OpenAI fa pagare agli sviluppatori che utilizzano la sua tecnologia una piccola somma ogni 20,000 parole di testo e un paio di centesimi di dollaro per ogni immagine generata.
Con DALL-E2 gli utenti hanno un certo numero di prove gratuite, terminate le quali possono acquistare dei crediti per creare e scaricare le immagini.
Dietro OpenAI c’è un gruppo di investitori e aziende che comprende alcuni dei maggiori notabili della Silicon Valley e non solo: da Peter Thiel di Paypal a Elon Musk, a Microsoft, al gruppo indiano InfoSys.
Se, come sembra, le applicazioni della generative AI sono destinate a rivoluzionare interi settori produttivi e a generare enormi profitti, chi controlla queste tecnologie e dove andranno a finire queste ricchezze non è un aspetto secondario.
La maggior parte dei grandi modelli AI vengono sviluppati negli Usa (oltre a OpenAI, ci stanno lavorando ad esempio Meta, Google, DeepMind), in Cina (Baidu, Huawei, Inspur), Israele, Corea del Sud. Grande assente l’Europa che, come accade per i social network e i motori di ricerca rischia quindi di figurare per lo più come cliente, a beneficio di aziende e investitori situati altrove. Senza peraltro poter aver voce in capitolo sulle specifiche di tali modelli.
Un approccio diverso, non proprietario, è quello portato avanti da Stability AI, la società che produce il modello generatore di immagini Stable Diffusion e che recentemente ha raccolto un investimento di cento milioni di dollari, diventando un unicorno. Stable Diffusion viene distribuito con licenza open source, il che significa che chiunque ne può leggere e modificare il codice sorgente. Questo porta con sé alcuni problemi: è possibile, per esempio, con un minimo di sforzo, rimuovere le protezioni introdotte dagli sviluppatori per impedire la creazione di contenuti violenti o pornografici.
D’altra parte, rendere accessibile a tutti il codice impedisce la creazione di monopoli e oligopoli che, come accaduto con i social network e i motori di ricerca, possano controllare l’accesso di milioni di persone a tecnologie di fondamentale importanza. Favorendo la partecipazione di un maggior numero di soggetti a una rivoluzione agli albori, di cui stiamo solo iniziando a intravedere l’importanza.