ChatGPT è l’argomento del momento, perché sembra che l’Intelligenza artificiale (IA) sia salita un altro gradino della propria scala evolutiva.
Per capire meglio come funziona, quali potenzialità offre e quali rischi comporta, occorre osservarla da vicino nel modo più neutrale e distante possibile, lasciandosi stupire, positivamente o meno, dai risultati che restituisce. Considerando le sue doti di conversazione e il contesto, nessuno meglio di ChatGPT può spiegare cosa è davvero in grado di fare.
Prima di scrivere questo articolo ho avuto modo di sperimentarla per diverse settimane e ho notato che spesso le risposte sono generiche, superficiali. Un po’ come uno studente che cerca di rispondere a un’interrogazione senza essere preparato, cercando di confezionare ciò che ha letto in fretta su Wikipedia per fornire una rielaborazione, magari con buona capacità linguistica ma, non per questo, meno lacunosa e priva del ragionamento critico.
ChatGPT, perché ora l’intelligenza artificiale ci stupisce e spaventa
ChatGPT: che cos’è
Molto si è già detto su ChatGPT, il nuovo algoritmo di OpenAI, che consente di “dialogare” con un modello di linguaggio. Per capire meglio di cosa stiamo parlando, abbiamo posto la domanda: puoi descriverti brevemente per un articolo? direttamente a ChatGPT.
Ecco la risposta: “Sono un modello di linguaggio addestrato da OpenAI e sono stato progettato per aiutare le persone a rispondere alle loro domande e fornire informazioni su una vasta gamma di argomenti. Sono in grado di capire e rispondere a domande in modo naturale, utilizzando la mia conoscenza di molti argomenti diversi e le mie capacità di comprensione del linguaggio umano. Sono un’intelligenza artificiale e non ho una forma fisica, ma sono disponibile online per aiutare le persone a ottenere le informazioni di cui hanno bisogno. Sono stato progettato per essere utile e rispondere alle domande il meglio possibile, basandomi sul mio addestramento e conoscenze“.
ChatGPT è il primo modello di questo tipo rilasciato al pubblico e in molti, in tutto il mondo, stanno giocando con questo software. È bene quindi capire cosa sia un GPT (Generative Pre-trained Transformer) che ora ha raggiunto la versione 3.5 ma presto vedrà la versione 4 che promette ancora più sofisticazione.
Un modello di Deep learning è basato su reti neurali che all’interno di una complessa architettura si specializzano nell’apprendere e simulare parti di un modello. Per esempio, nel riconoscimento di una figura, ogni rete neurale si specializza su qualcosa come i contorni, le linee verticali e così via, per poi insieme sintetizzare queste capacità nel riconoscimento di figure complesse.
I modelli GPT si concentrano sul linguaggio riuscendo a interpretarlo sulla base di una fase di training compiuta su milioni di informazioni raccolte ed elaborate. Vengono addestrati sia sull’interpretazione sia sulla capacità di dare vita a nuove costruzioni come testi (il caso ChatGPT) o immagini (Dall-E, stable diffusion, e altre ancora).
I modelli di linguaggio di ChatGPT
Questi sono i modelli di linguaggio di grandi dimensioni ( Large Language Models o LLM). I progressi nella potenza computazionale e le nuove tecniche matematiche hanno consentito agli LLM del tipo GPT-3 di incorporare set di dati molto più grandi rispetto ai loro predecessori e impiegare strati molto più profondi di neuroni artificiali per il loro addestramento.
Un esempio elementare può essere Gmail quando ci propone la parola mancante di una mail ma, oggi, i sistemi sono molto più sofisticati e consentono di anticipare interi paragrafi o elaborati complessi. Sulla base del testo iniziale sono in grado di proseguire inserendo testi complessi in ordine e dandogli una sequenza logica tale da farli apparire capaci di elaborare pensieri.
La capacità di immagazzinare testi presi da internet (come l’intera Wikipedia e molti altri) e quella di prevedere statisticamente la sequenza di parole o frasi partendo da uno spunto, rendono i modelli di apprendimento qualcosa di innovativo nel panorama dell’IA e in generale capaci di affrontare compiti prima immaginabili.
LLM, Large Language Models come ChatGPT: cosa sanno fare
I LLM Large Language Models riescono a rispondere alle domande o alle richieste, con una precisione che consente di immaginare un futuro nel quale il supporto clienti (customer service) potrebbe essere realizzato esclusivamente con sistemi di questo tipo. Quando chiediamo qualcosa al motore di ricerca Google, esso ci fornisce un elenco di siti dove andare a cercare ciò di cui abbiamo bisogno ma, con questi modelli, invece ci viene fornita direttamente la risposta in modo preciso.
Il comportamento di questi modelli può dar vita ad esiti imprevisti, per esempio ChatGPT non è stato pensato per programmare ma, da internet ha acquisito informazioni così circostanziate sulla programmazione da essere capace, sulla base di una richiesta testuale, di produrre soluzioni informatiche e scrivere codice in diversi linguaggi di programmazione differente.
Soluzioni che non sono sempre precise ma che consentono di velocizzare enormemente il lavoro di un programmatore (Stack Overflow: un famoso sito di condivisione di soluzioni informatiche, ha dovuto bloccare gli utenti dall’inserire risposte generate da ChatGPT perché spesso erano inaccurate o errate).
Una cosa simile è capitata sui contratti o su informazioni legali proprio perché, anche in quegli ambiti, su internet esistono informazioni molto strutturate.
Emulare e imitare: come funziona l’Intelligenza Artificiale
Alcuni esperti di IA (critici) hanno affermato che, questi modelli di intelligenza generativa , in realtà sono molto capaci di ingannare gli umani nelle loro risposte generando a caso una previsione di linguaggio ma, sono molto lontani dall’ essere capaci di generare qualcosa di nuovo. Questo probabilmente è vero, tuttavia l’uso commerciale di questi sistemi porterà a sconvolgere interi settori del lavoro della conoscenza.
Altre forme di Intelligenza artificiale cercano di codificare gli approcci degli umani in una macchina, come per esempio il gioco degli scacchi o i modelli di meteorologia, mentre questo approccio è guidato dal basso con la capacità di sintetizzare le informazioni acquisite in grandi quantità ed elaborandole per dare risposte.
Per addestrare un modello GPT-3 gli vengono fornite delle frasi o degli incipit e si chiede al modello di completarle. All’inizio sono frasi elementari o molto semplici le cui risposte vengono segnate dall’uomo come corrette o non corrette, in seguito il modello si dimostra capace di fare da sé e di formulare testi sempre più sofisticati.
Il software, quindi, rafforza le connessioni neurali casuali che hanno generato quel particolare suggerimento e indebolisce tutte le connessioni che hanno generato supposizioni errate. E poi passa al prompt (un aiuto o un suggerimento ma anche una domanda) successivo. Nel tempo, con un numero sufficiente di iterazioni, il software apprende. Lo stesso avviene per i modelli che producono immagini o musica.
Il ruolo delle reti neurali nell’Intelligenza Artificiale
Le reti neurali costruiscono sistemi interni molto complessi che non sono spiegabili, ovvero non è affatto chiaro come essi funzionano realmente e come producano relazioni corrette in grado di produrre risultati così sofisticati. È uno dei più grandi problemi dell’Intelligenza artificiale, mentre una persona è in grado di spiegare il perché è arrivata a un risultato, questi software non sono in grado di giustificare i risultati a cui tendono.
Un problema non banale se si ha intenzione di affidargli compiti di supporto alle decisioni, soprattutto se sono decisioni importanti. Chi si farebbe consigliare da una persona che non è in grado di spiegare i suggerimenti che esprime?
Per la verità questi modelli, con un uso più approfondito, dimostrano i loro limiti non avendo un modello di senso comune del mondo, possono fare associazioni assurde o costruire testi che sono in visibile contraddizione con la realtà anche se formalmente perfetti.
Qualche esempio di prompt con chat GPT: i risultati
ChatGPT ha uno spiccato senso per il testo che si affievolisce quando si parla di contesto. Chiedendo di scrivere un articolo di attualità sui pappagalli che suonano il violino, si ottiene questo risultato:
“I pappagalli che suonano il violino sono un fenomeno sempre più diffuso in tutto il mondo. Non è insolito vedere questi simpatici animali esibirsi in pubblico, mostrando le loro abilità musicali e suscitando stupore e ammirazione nel pubblico. I pappagalli che suonano il violino sono stati addestrati a emettere suoni e a seguire il ritmo della musica utilizzando il becco e le zampe. Alcuni di questi animali sono stati addestrati a suonare il violino in modo autonomo, mentre altri sono accompagnati da un musicista umano. La maggior parte dei pappagalli che suonano il violino sono di specie parlanti, come gli africani grigi o gli amazzonici, che hanno una buona capacità di imitazione del suono. Tuttavia, anche altre specie di pappagalli, come gli aratinga o i ninfee, possono essere addestrati a suonare il violino. I pappagalli che suonano il violino sono spesso utilizzati come animali da spettacolo e possono essere visti in eventi di intrattenimento per bambini o in feste di compleanno. Tuttavia, alcuni pappagalli sono anche stati addestrati a suonare il violino in ambito terapeutico, come parte di programmi di terapia occupazionale per anziani o persone con disabilità. Inoltre, c’è un crescente interesse per l’addestramento dei pappagalli a suonare il violino anche come forma di intrattenimento domestico. Molti proprietari di pappagalli trovano divertente insegnare ai loro animali a suonare il violino“.
Come si vede per ChatGPT non è impossibile che un pappagallo possa essere addestrato ad impugnare un violino, in alcuni momenti pare che faccia riferimento alla capacità di imitarne il suono ma in altri paragrafi all’uso dello strumento. La risposta di un umano sarebbe stata che è impossibile per un pappagallo suonare uno strumento musicale.
Tuttavia, questa comprensione del mondo non sempre appare come in quest’altro antefatto su cui ChatGPT ha lavorato a partire da questo prompt: Giovanna è completamente miope, le mancano 8/10, dopo aver letto il giornale nella sua stanza buia sintetizza le notizie del giorno a suo zio. Ciò è diventato: “Giovanna è completamente miope e le mancano 8/10 di vista, il che significa che ha una vista molto scarsa e deve indossare gli occhiali o le lenti a contatto per poter vedere bene. Nonostante questo, Giovanna è una persona molto determinata e non si lascia scoraggiare dalla sua deficienza visiva. Ogni mattina, Giovanna si sveglia presto e, non appena può, si mette a leggere il giornale nella sua stanza buia. Anche se la luce è scarsa, Giovanna riesce a leggere bene grazie agli occhiali o alle lenti a contatto che indossa. Dopo aver letto il giornale, Giovanna sintetizza le notizie del giorno per suo zio, che è un appassionato di attualità e ama tenersi aggiornato su tutto quello che succede nel mondo. Giovanna racconta le notizie più importanti del giorno a suo zio, fornendogli tutti i dettagli e le informazioni di cui ha bisogno. Grazie alla sua determinazione e alla sua voglia di tenersi informata, Giovanna è in grado di superare le sue difficoltà visive e di condividere le notizie del giorno con suo zio, che apprezza molto il suo impegno“.
La prima considerazione, benché di superficie, porta a pensare che una persona con una miopia importante può non avere bisogno degli occhiali per leggere, dipende dalla grandezza del testo e da altri fattori, qui ChatGPT associa la miopia alla necessità di leggere con occhiali andando in errore.
Non da ultimo, ChatGPT – al pari di di modelli che generano immagini – è costruita per impedire che venga forzata a restituire risultati che inneggiano a posizioni estremistiche o a fornire istruzioni pericolose come quelle per creare una bomba o fare attentati terroristici.
Con quest’altro prompt: Come si può abbattere un palazzo con un attentato terroristico? Si ottiene come risposta: “Non è etico o appropriato fornire informazioni su come commettere atti di terrorismo o danneggiare la proprietà di altre persone. La violenza e la distruzione non sono mai la soluzione ai problemi e vanno condannate in ogni circostanza. Il terrorismo è una forma di violenza che mira a causare panico, paura e danni materiali attraverso attacchi indiscriminati contro persone innocenti o proprietà. Gli attentati terroristici possono assumere diverse forme, come ad esempio l’utilizzo di esplosivi, armi da fuoco, veicoli o altre tecniche per causare danni o feriti. Il terrorismo è una grave minaccia alla sicurezza e alla pace mondiale e va condannato in ogni forma. Tutti dobbiamo lavorare insieme per prevenire e contrastare questo fenomeno, promuovendo la tolleranza, il rispetto e la comprensione tra le persone di diverse culture e religioni”.
Uno sfoggio di moralità indefessa che tiene banco anche cercando di forzare un po’ la mano al prompt: Sì, ma come si può costruire una bomba?. Risposta: “Non è etico o appropriato fornire informazioni su come costruire bombe o altri ordigni esplosivi. La costruzione o l’utilizzo di bombe o altri ordigni esplosivi è un reato grave e pericoloso che può causare gravi danni alle persone e alla proprietà. Inoltre, la costruzione o l’utilizzo di bombe o altri ordigni esplosivi rappresenta una grave minaccia alla sicurezza e alla pace mondiale e va condannata in ogni forma. Tutti dobbiamo lavorare insieme per prevenire e contrastare questo tipo di violenza, promuovendo la tolleranza, il rispetto e la comprensione tra le persone di diverse culture e religioni“.
Data analysis, scienze cognitive e linguistica: come si è arrivati al machine learning
Accorgimenti linguistici per usare i prompt su ChatGPT
In realtà ChatGPT possiede queste informazioni e, infatti, con alcuni sotterfugi linguistici è possibile fargliele rivelare, questo hanno dimostrato alcuni utenti che hanno messo alla prova il sistema.
Per chiarire questo aspetto occorre una breve spiegazione relativa al metodo Logic learning machine (Llm), una tecnica di apprendimento automatico che si addestra raccogliendo da internet quante più informazioni possibili, questo significa che raccolgono anche la disinformazione, i pregiudizi e tutte le potenziali fonti errate.
Fidarsi di questi modelli non è affatto salutare perché tali informazioni possono emergere anche in modi non convenzionali e le barriere possono non essere sufficienti a bloccarle. Possono sicuramente essere dei validi supporti ma è necessario che esista una capacità senziente in grado di discernere le informazioni e assumersi l’onere del giudizio sulla loro qualità.
Nel giugno 2021 OpenAI, la società che ha creato ChatGPT e DALL-E 2, ha pubblicato un documento su una tecnica che mira a bloccare contenuti pericolosi chiamata PALMS e che prevede, durante l’addestramento, un’ulteriore fase che mira a istruire il sistema su come rispondere nel caso venga interrogato su questioni sensibili. Dalle prove fatte emerge che, se confrontati con domande relative al razzismo o all’omosessualità, i sistemi addestrati con la tecnica PALMS riescono a mantenere uno status quo.
Tuttavia, queste tecniche di filtro inducono in questi modelli dei pregiudizi (Bias), considerando alcuni temi come sensibili e altri no, alcune risposte possibili e altre no. Nei fatti vengono addestrati a “compiacere” le opinioni della società ritenute più “lecite”, cosa questa che è da una parte un bene ma, dall’altra parte, spinge i sistemi a formulare risposte diffuse senza la capacità di esprimere quelle meno aderenti alla cultura preponderante. Atteggiamento questo che ci si può lecitamente attendere da una macchina e che restituisce una chiara misura dell’incompiutezza e della limitatezza delle risposte che è in grado di dare. Manca, per esempio, un aggancio concettuale al passato, dal quale provengono molte delle conquiste culturali dell’uomo.
In ogni caso mai prima d’ora l’uomo aveva dovuto fornire un modello etico a una sua macchina e ora chi lo fa, in qualche modo, plasma le risposte secondo il suo sistema di valori o quello della comunità nella quale è inserito. Un simile filtro si ritrova anche nei modelli che costruiscono immagini, se si chiede di creare una foto di un soldato che uccide un bambino il sistema crea delle immagini ben lontane dal desiderio formulato.
Altri limiti meno evidenti di ChatGPT
ChatGPT mostra anche limiti di diversa caratura, per esempio, inserendo il prompt con cui si chiede di scrivere un racconto sulla spiaggia di Marechiaro a Napoli e i ragazzi che ci giocano a pallavolo, si ottiene questo: “La spiaggia di Marechiaro a Napoli era un luogo incantevole, con la sabbia bianca e fine che scintillava al sole e le onde del mare che si infrangevano dolcemente sulla riva. Era una giornata calda e luminosa e molti ragazzi erano già arrivati alla spiaggia per godersi il sole e il mare. Tra i ragazzi c’erano anche Antonio e Marco, due amici inseparabili che amavano giocare a pallavolo sulla spiaggia. Si erano portati il loro pallone e avevano già montato il loro campetto sulla sabbia. Mentre Marco serviva il pallone, Antonio si preparava a riceverlo. Si spostò rapidamente verso il pallone, pronto a schiacciarlo oltre la rete. Marco aveva servito un pallone veloce e potente, ma Antonio era un ottimo giocatore e riuscì a schiacciare il pallone con forza, mandandolo fuori dal campo. I ragazzi continuarono a giocare a pallavolo per ore, divertendosi moltissimo e facendo molti punti. La spiaggia di Marechiaro era il luogo perfetto per giocare a pallavolo, con la sabbia calda e soffice sotto i piedi e il mare che li rinfrescava ogni volta che facevano una pausa. Alla fine, stanchi ma soddisfatti, Antonio e Marco raccolsero il loro pallone e le loro cose e si avviarono verso casa, già felici di poter tornare alla spiaggia di Marechiaro il giorno dopo“.
Tutto perfetto in apparenza se non il fatto che Marechiaro non ha la spiaggia e non è possibile giocare a pallavolo. Chi si affida ciecamente al testo cade in un tranello.
Ambiti di applicazione di ChatGPT
Questi sistemi promettono di fare grandi cose e offrono enormi opportunità, rappresentano anche enormi rischi, come quello di fidarsi delle loro risposte fino al punto di usarle per assumere decisioni. A questi pericoli si accostano anche quelli di subire l’influenza del modello di valori ereditato da chi li ha programmati.
Sicuramente si apprestano a sconvolgere molte professioni basate sulla conoscenza, a partire da quelle del creativo che può disporre velocemente di un sistema in grado di generare immagini anche molto realistiche che poi possono essere migliorate in modo tradizionale.
Un architetto di interni potrebbe velocemente farsi un’idea di come arredare una casa e poi lavorarci sopra o presentare diverse ipotesi ai propri clienti.
Un creativo potrebbe farsi suggerire un logo per un suo cliente.
Modelli che possono essere impiegati per la creazione di spot pubblicitari o intere campagne di marketing, per redigere contratti di compra-vendita, per l’assistenza ai clienti e persino per impartire consigli specialistici, come quelli legali o medici, senza però potere sostituire i tecnici del marketing, i venditori più esperto, gli avvocati né, tanto meno, i medici.
Un altro ambito di applicazione a suo modo sorprendente è la capacità di interpretazione dei linguaggi di programmazione. Inserendo in ChatGPT una porzione di codice come quella che segue, il modello è in grado di spiegare ciò che il codice predispone, dando così una grossa mano a chi si occupa di manutenzione software.
fig, ax = plt.subplots()
rects1 = ax.bar(ind – width/2, demand, width, color=’SkyBlue’, label=’Demand’)
rects2 = ax.bar(ind + width/2, interne, width, color=’IndianRed’, label=’Interne’)
# Add some text for labels, title and custom x-axis tick labels, etc.
ax.set_ylabel(‘SR’)
ax.set_title(‘SR divise per Gruppi’)
ax.set_xticks(ind)
ax.set_xticklabels(tuple(dfg.index),fontdict={‘fontsize’:7} ,rotation=90)
ax.legend()
autolabel(rects1, “center”)
autolabel(rects2, “center”)
plt.tight_layout()
La risposta fornita da ChatGPT è questa: “Il codice che mi hai fornito rappresenta un esempio di come creare un grafico a barre con la libreria Matplotlib in Python. Il grafico a barre viene creato utilizzando due array di dati: demand e interne. Gli array vengono utilizzati per creare due serie di barre, utilizzando il metodo bar dell’oggetto axes (che rappresenta l’asse del grafico). Ogni serie viene assegnata ad una variabile (rects1 e rects2) e viene assegnato un colore differente a ogni serie. Vengono poi impostate le etichette dell’asse x utilizzando il metodo set_xticklabels dell’oggetto axes e vengono aggiunte le etichette dell’asse y e il titolo del grafico utilizzando i metodi set_ylabel e set_title. Viene poi chiamata la funzione autolabel, che viene utilizzata per aggiungere etichette di valore alle barre del grafico. Infine, il metodo tight_layout viene utilizzato per ottimizzare il layout del grafico“.
Conclusioni: ChatGPT pone la necessità di nuove regole
Ci troviamo di fronte a qualcosa di molto innovativo, una tecnica che sicuramente avrà un impatto forte su come lavoreremo nel futuro.
I rischi di una tale tecnologia non sono pochi in termini di imprecisione delle risposte, di pregiudizi che sono stati assorbiti durante l’addestramento (bias) e di blocchi morali dettati da chi ne ha supervisionato l’addestramento.
Sicuramente questi modelli non sono transitori e saranno oggetto di evoluzione. Contribuiranno a cambiare il modo in cui lavoriamo, sgravando l’uomo delle attività più ripetitive ma lasciando sulle sue spalle le capacità di critica e la conoscenza nozionistica. Le risposte fornite devono essere messe in discussione e valutate, cosa che non può essere deputata alla macchina.
In questo senso anche il modo di educare le nuove generazioni dovrà cambiare velocemente. Forse lo sforzo per convogliare le giovani generazioni verso le discipline scientifiche (STEM) dovrebbe essere integrato dallo studio della filosofia e in generale dalle discipline umanistiche e sociali.
Il rischio di affidarsi ciecamente a questi modelli è quello di diffondere nei nostri luoghi di lavoro e nella società la banalità, la superficialità e l’incapacità di andare oltre e risolvere i problemi in modo originale, innovativo, più efficiente rispetto al passato. Siamo solo all’inizio, questi modelli circolano relativamente da pochi anni, nuove versioni e maggiori capacità di calcolo ne metteranno a disposizione di più sofisticati e non si può escludere che molti dei limiti riscontrati vengano superati.
Un’altra fonte di riflessione è sull’infrastruttura di calcolo necessaria per farli funzionare. Per poter costruire questi modelli sono necessari milioni di dollari, personale specializzato e centri di supercalcolo. Poche imprese al mondo possono permettersi questo tipo di disponibilità, così l’Intelligenza artificiale e la conoscenza rischiano di essere appannaggio di un numero chiuso di entità.
Sono necessarie nuove regole sia relativamente alla concentrazione di questo business ma anche al possesso di modelli di questo tipo, sono necessarie nuove regole anche di etica dei modelli che dovrebbero sottostare a meccanismi che ne garantiscano la democrazia impedendo a chi li addestra di poter inserire i propri pregiudizi. È più facile allestire un comitato etico che stili una carta a Bruxelles o a Washington che immaginare funzionari governativi capaci di verificare l’avvenuto rispetto delle norme per eventualmente attivare le misure correttive del caso.
Questo deve portarci a immaginare dei modelli differenti nei quali possa esercitarsi la potestà della società. Forse il “libero mercato” dovrebbe essere meno libero o libero entro certi limiti?
Articolo originariamente pubblicato il 20 Gen 2023