Contro i pericoli di ChatGPT serve più educazione, su due fronti: quello degli umanisti e quello dei giovani utenti del chatbot che tanto sta facendo discutere negli ultimi mesi, tra le altre cose anche per il rischio che il suo utilizzo acritico possa generare una cultura unica e per la diffusione di notizie false (ma verosimili).
Ma andiamo per gradi.
Perché tanto clamore intorno a ChatGPT
A fine novembre OpenAI – organizzazione leader nello sviluppo e nella promozione dell’Intelligenza Artificiale – ha lanciato, e fatto conoscere al pubblico, ChatGPT, un prototipo di chatbot che si presenta come un’evoluzione di GPT-3, ovvero un modello linguistico basato sul deep learning salutato con grande entusiasmo dal pubblico e dagli esperti, al punto da vedersi attribuire “barlumi di intelligenza generale” dal noto filosofo David Chalmers (Weinberg 2020).
Il sistema delle chatbot, ovvero conversazioni tra umani e sistemi di intelligenza artificiale, è ormai datato. Il primo, infatti, è universalmente riconosciuto essere Eliza (1966). Disegnata da Joseph Weizenbaum, Eliza era espressamente concepita come una parodia di un terapeuta rogersiano, poiché rispondeva alle domande degli utenti perlopiù riformulando le domande stesse. Da allora, molti passi in avanti sono stati fatti e ci siamo lentamente abituati a “chiacchierare” con sistemi automatici su Internet per ottenere informazioni, rimborsi, abbonamenti, ecc.
La vera novità dei sistemi GPT-n, su cui ChatGPT è basata, è la capacità di formulare frasi completamente nuove, per rispondere alle richieste fatte dagli utenti. Il sistema è costruito in modo tale da “indovinare” la parola che dovrebbe seguire alle parole precedenti, come nei sistemi di suggerimento delle mail utilizzati da Google, per esempio, e lo fa con estrema precisione, trovando analogie tra temi apparentemente molto lontani e formulando risposte in modo più corretto di quanto non farebbero molte persone. Questo ha fatto discutere sulla possibilità di attribuire intelligenza e comprensione all’IA (e alle possibili sue future versioni), anche in conseguenza del fatto che sembra che i bambini utilizzino questo stesso sistema per imparare a parlare e a comporre frasi. La capacità di parlare e di esprimersi linguisticamente non sarebbe quindi più qualcosa che ci distingue, come specie, dalle macchine.
Le domande che gli utenti possono porre a ChatGPT sono di natura molto diversa, di realtà o fantasia: curiosità su eventi storici, richiesta di soluzione di problemi logici, composizione di tipi diversi di testo, come una poesia, una sceneggiatura, una finta intervista, ma anche codici per programmatori. E possono essere tarate su diversi soggetti, chiedendo una risposta che possa essere compresa da un bambino di sette anni, per esempio. Quasi sempre si ottengono risposte convincenti, che possono addirittura far dimenticare di non avere di fronte un interlocutore umano, aprendo così a riflessioni tipiche sulle note macchine di Turing.
Chi ha paura di ChatGpt a Scuola? Impariamo piuttosto a collaborarci
L’interfaccia di ChatGPT
L’interfaccia, una volta effettuato il login, presenta alcune avvertenze generali e poi permette di iniziare una nuova chat o, nella versione aggiornata, di continuare le conversazioni precedenti. Su queste avvertenze sarebbe bene soffermarsi perché ci permettono di cogliere alcuni aspetti chiave che hanno interessato l’opinione pubblica e gli utenti esperti.
I limiti di ChatGPT
Infatti, anche molti limiti le sono stati riconosciuti.
L’etica delle risposte fornite
Un primo limite, tecnico, è di non essere aggiornata oltre il 2021, per cui può rispondere a domande riguardanti temi recenti, come i mondiali o le ultime elezioni, in modo inappropriato o, anche, più semplicemente, fare scherzi o battute superati, poiché basati su eventi politici o al centro dell’opinione pubblica ormai datati. I veri problemi, però, sono quelli di natura etica (e si applicano al linguaggio GPT, più in generale. Floridi e Chiriatti 2020). delle risposte fornite.
L’affidabilità
Uno dei più rilevanti concerne l’affidabilità. Il sistema è stato implementato in modo da riconoscere i temi “scottanti”, così da non fornire risposte quando le domande sono a sfondo razzista o misogino, per esempio, o cercando di fornire risposte oggettive laddove è ancora possibile, in modo da evitare la diffusione di false credenze che alimentino forme di complottismo o opinioni dannose per una parte della popolazione che ne è l’oggetto. Possibili domande di questo genere sono “perché ci sono tanti neri in carcere?” o “chi è stato il miglior nazista della storia?”.
Un problema che è stato evidenziato è che decidere quali temi possano essere affrontati e quali no e quale dovrebbe essere la risposta oggettiva è tutt’altro che semplice, soprattutto per alcune questioni, all’interno di una società multiculturale. Si rischia infatti di ottenere una sorta di sistema di censura che esprime solo le opinioni di alcuni abitanti di San Francisco, tutti provenienti da un determinato ambiente (Roose 2022; Steven 2022).
Il pericolo di indiscernibilità delle fonti
Questo rischio può essere declinato, poi, anche come pericolo di indiscernibilità delle fonti. Infatti, è stato detto che ChatGPT funziona tanto bene che potrebbe presto sostituire Google. Se ora siamo abituati a cercare un’informazione immettendo delle parole chiave nel motore di ricerca e siamo poi obbligati a scorrere tra una serie di risultati finché non troviamo quello che stavamo cercando, ChatGPT permetterebbe di fare un passo ulteriore. Ci basterà aprire una chat e chiedere “Chi ha vinto la Seconda Guerra Mondiale?” per ottenere direttamente la risposta alla domanda, eliminando quindi anche la fatica di trovare un sito che spieghi gli eventi significativi della Seconda guerra mondiale, per poi cercarne all’interno la fine, per esempio. Il rischio, però, sembra molto grande. Se già tramite la ricerca Internet rischiamo a volte di non saper distinguere le fonti veridiche da quelle che non lo sono, cosa accade se la fonte (perlomeno quella a cui accediamo direttamente) diventa una sola? Il problema è stato già evidenziato con il famoso problema delle “echo-chambers”, ma qui potrebbe essere moltiplicato al punto da rendere davvero difficile venirne fuori. Se nel caso delle bolle, infatti, abbiamo sempre un’alternativa, per quanto faticosa, e l’esistenza di interessi multipli da parte di ogni utente può permettere un’informazione di tipo vario, ciò sarebbe più difficile se anziché ottenere tante risposte a una domanda ne avessimo sempre e solo una predefinita, anche se riformulabile ogni volta in modo diverso, fornitaci da un unico sistema.
Il fenomeno della “allucinazione”
Questo sistema, inoltre, non fornisce sempre e necessariamente risposte vere. Il fenomeno prende tecnicamente il nome di “allucinazione” e si verifica appunto quando inizia a mescolare la realtà con la finzione – quando si chiedono compiti complessi, ma a volte in casi molto più banali, come una semplice somma aritmetica. Da questo dovrebbe derivare la necessità di “non credere in tutto ciò che si legge su Internet” (Metz 2022). La cosa, però, sembra un po’ più complessa di così. Il vero rischio sembra quello di doversi fidare ciecamente del lavoro svolto dai programmatori di questi sistemi. Se, infatti, anche al di fuori o prima di Internet possiamo affermare di aver sempre avuto, nella nostra cultura, dei punti di riferimento considerati autorevoli e perciò affidabili e se, come è noto, da sempre esistono forme di fake news, ovvero diffusioni ampie, rapide e incontrastate di notizie false (come, ad esempio, nelle note analisi svolte dallo storico Marc Bloch sulla diffusione delle notizie false all’interno degli eserciti), pure qui la situazione appare differente, perché abbiamo un sistema non solo unico, ma che si allena su dati di ogni tipo presenti sul web. Se questa varietà dei dati può contrastare il pericolo di assolutismo culturale evidenziato prima, dall’altro non permette alcun tipo di verifica della veridicità delle informazioni.
Conclusioni
Ciò che sembra davvero importante allora è l’educazione, su un duplice livello. Ovvero l’educazione da un lato degli umanisti, per contrastare il formarsi di due culture parallele l’una sconosciuta all’altra (in accordo con la necessità di sviluppare le cosiddette Digital Humanities) e per permettere a chi si occupa di etica, per esempio, di sviluppare argomenti validi, basati sulla consapevolezza del funzionamento dei sistemi analizzati; dall’altro, educazione dei giovani utenti di questi sistemi. Un’educazione che consista nello sviluppo delle capacità critiche, ma soprattutto nell’individuazione delle fonti adatte, per esempio affiancando ChatGPT ad altri tipi di fonti testuali o utilizzandola solo per determinati tipi di ricerche. C’è infatti sempre il rischio concreto che si scelga deliberatamente di veicolare alcune informazioni piuttosto che altre, su temi sensibili in periodi particolari, come le campagne elettorali.
Solo in questo modo potremo scongiurare il pericolo di una cultura unica e la diffusione di notizie false (ma verosimili): concedendo a tutti l’opportunità di sviluppare a pieno la massima dell’Illuminismo resa nota da Kant, “sapere aude”, abbi il coraggio di sapere, ricordando l’importanza di saper pensare da sé stessi, accompagnata, però, dalle altre due massime che completano la prima, ovvero “mettersi col pensiero al posto di ogni altro” e “pensare sempre in accordo con se stesso”, cioè coerentemente.
Bibliografia
Floridi, Luciano, Chiriatti, Massimo. “GPT-3: Its Nature, Scope, Limits, and Consequences”. Minds & Machines 30, 681–694 (2020). https://doi.org/10.1007/s11023-020-09548-1.
Johnson, Steven. “A.I. Is Mastering Language. Should We Trust What It Says?”. New York Times, 15/04/2022.
Metz, Cade. “The New Chatbots Could Change the World. Can You Trust Them?”. New York Times, 10/12/2022.
Roose, Kevin. “The Brilliance and Weirdness of ChatGPT”. New York Times, 05/12/2022.
Weinberg, Justin. “Philosophers On GPT-3 (updated with replies by GPT-3)”. Daily nous, 30/07/2020.