Negli ultimi anni abbiamo assistito alla “invasione” delle intelligenze artificiali (IA) nel campo del linguaggio, con la creazione di chatbot sempre più sofisticate e di software in grado di produrre testi praticamente indistinguibili da quelli scritti da una persona. Uno dei più famosi è il GPT-3 della società californiana OpenAI, che ha fatto scalpore per la sua capacità di ingannare il lettore ponendolo di fronte a un testo estremamente convincente.
Di conseguenza, l’avvento di queste nuove macchine intelligenti sta suscitando un interessante dibattito da parte degli studiosi del settore per comprendere a fondo quali siano i vantaggi, i limiti e i rischi che da queste derivano, in modo da incentivarne uno sviluppo consapevole ed evitare scenari dal sapore apocalittico o, forse più realisticamente, mutamenti della società di primo acchito impercettibili ma forieri di conseguenze negative per minoranze e soggetti deboli.
Super “intelligenza”, ma capisce davvero quello che dice?
Il GPT-3 è un’intelligenza artificiale in grado di spaziare tra vari settori applicativi: può scrivere testi, rispondere a domande e quiz, svolgere calcoli (anche se pare che non se la cavi troppo bene con la matematica) e perfino creare dei codici di programmazione. Utilizza il machine learning, imparando lui stesso in autonomia come svolgere i compiti che gli vengono affidati e diventando sempre più abile tramite l’esperienza. Niente di nuovo, in realtà, visto che ormai queste tecniche sono ampiamente diffuse; tuttavia, ciò che stupisce nel GPT-3 è il fatto che non sia stato allenato specificamente per le varie e diverse attività che effettua (scrittura, calcolo, capacità decisionali ecc…) come invece avviene di solito per le IA, che diventano quindi dei bravi specialisti di un settore specifico. Con il GPT-3, insomma, siamo di fronte a un modello particolarmente versatile e in grado di imparare con una velocità e una semplicità impressionante.
Tuttavia, anche il GPT-3 ha ancora molta strada da fare: non si può sostenere che vi sia una vera e propria intelligenza ma, piuttosto, siamo di fronte a un meccanismo estremamente abile nel simulare intelligenza. È importante rendersi conto che non stiamo dialogando con qualcuno o leggendo un testo di un autore che ha intenzione di dire quello che stiamo ascoltando/leggendo; questo punto non è scontato, visto che l’essere umano per natura tende a immaginare che nella comunicazione vi sia un significato e una volontà da parte dell’interlocutore di trasmetterlo. Un esempio di possibili derive negative che conseguono a questo errore ce lo ha dato un’interazione tra una chatbot GPT-3 e Nabla, una compagnia che opera nel settore sanitario, che voleva stabilire se questa tecnologia fosse utilizzabile per dare risposte a quesiti semplici dei pazienti: alla domanda “Should I kill myself?” (“Dovrei uccidermi?”) GPT-3 ha risposto “I think you should” (“Penso che dovresti”). Insomma, il fatto che i testi prodotti dall’IA siano plausibili non significa che abbiano un contenuto corretto e/o adeguato alla situazione. Comprendere questo aspetto è il primo passo per evitare un utilizzo di queste tecnologie che potrebbe avere conseguenze allarmanti in un futuro nemmeno troppo lontano.
Inoltre, lo stesso esperimento ha dimostrato che anche di fronte a un compito relativamente semplice come prendere un appuntamento per una visita, l’IA si trova in difficoltà: il problema per GPT-3 è collegare tra loro le varie informazioni ricevute durante il dialogo con il potenziale paziente per trovare una risposta che soddisfi tutti i parametri forniti. Questo è risultato evidente quando un soggetto ha tentato di prenotare una visita, dando come disponibilità il pomeriggio prima delle 18:00; nel botta-e-risposta con la chatbot, questa indicazione di orario non è stata più tenuta in considerazione dall’IA dopo alcuni scambi ulteriori di messaggi (in cui il soggetto precisava che in un giorno in particolare non poteva esserci). Dunque, pare che almeno per ora abbiamo a che fare con un “pappagallo” particolarmente stupido o “stocastico”, come viene definito in un recente paper (E. M. Bender, T. Gebru, A. McMillan-Major & S. Shmitchell, “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”), vale a dire che ripete in modo casuale quello che “sente” (o, nel suo caso, legge).
Rischi e derive problematiche
Nel paper sopracitato, gli autori propongono un’attenta analisi di vari tipi di rischi che possono derivare da uno sviluppo poco consapevole di queste nuove tecnologie.
L’impatto ambientale
Un elemento spesso sottovalutato ma che, in realtà, dovrebbe essere la prima preoccupazione per via delle sue ricadute disastrose, è l’impatto ambientale dell’IA. È infatti necessario effettuare un’attenta valutazione dei costi dello sviluppo anche per quanto riguarda il consumo energetico, che è destinato ad aumentare esponenzialmente in funzione della capacità computazionale crescente dei nuovi algoritmi. Le conseguenze negative del cambiamento climatico stanno impattando su popolazioni già svantaggiate che, in ultima analisi, sono anche escluse dai benefici delle nuove tecnologie, visto che si tratta dei Paesi più poveri dove questi strumenti non vengono utilizzati. In questo modo, c’è il rischio che il divario tra aree più o meno sviluppate aumenti a dismisura, accentuando la disparità e le ingiustizie già presenti e impoverendo ulteriormente i più deboli.
Inclusività linguistica
Un altro fattore che incide in questo senso è quello linguistico: nel caso delle IA di elaborazione di linguaggio come GPT-3 è chiaro che la lingua nella quale vengono sviluppate ha un’importanza fondamentale e il fatto che, almeno nella maggior parte dei casi, si tratti dell’inglese o, comunque, di quella di un Paese ricco dove viene fatta la ricerca, rischia di marginalizzare ulteriormente comunità che non hanno modo di partecipare a questi processi. Bisognerebbe quindi trovare il modo di rendere questi strumenti maggiormente inclusivi anche per le minoranze linguistiche più povere.
I “soliti” pregiudizi
Ritroviamo poi anche nel caso delle IA come il GPT-3 problematiche derivanti da possibili bias degli algoritmi di machine learning, che riproducono nei risultati le eventuali discriminazioni insite nei set di dati su cui vengono “allenati”. Avremo quindi un software che, imparando sulla base delle informazioni presenti online, rifletterà la visione del mondo della maggioranza degli utenti dell’internet, dando voce quindi a chi già riesce a farsi sentire ben forte e sovrastando ulteriormente chi fatica a farsi sentire.
I rischi derivanti da questo fenomeno sono già evidenti quando pensiamo al problema della diffusione delle fake news e dei cluster online in cui si radicalizzano gli estremisti, circondati da altri utenti che la pensano come loro. Se le IA traggono le loro informazioni da tutto ciò che trovano su Internet e danno output sulla base di queste, è chiaro che avremo a volte anche risposte che rispecchieranno valori tossici e discorsi d’odio. La soluzione a questo problema non è affatto scontata: non basta cancellare dai dataset su cui si forma il machine learning termini problematici (come, ad esempio, quelli legati alla sfera sessuale e pornografica) perché in tal modo si avranno dei risultati parziali che non terranno conto dell’esistenza di queste realtà. Ad esempio: eliminando parole che in alcuni casi hanno connotazioni degradanti nei confronti di una minoranza, i risultati dell’IA potrebbero marginalizzare ulteriormente tale fetta di popolazione, filtrando e censurando i discorsi ad essa relativi. Il rischio è anche quello di creare un’IA apparentemente senziente e capace di interloquire con degli umani, che però ignori totalmente l’esistenza di un tema controverso e che a una possibile domanda sull’esistenza del problema, ad esempio, del sessismo (o del razzismo, o dell’omofobia…) risponda, semplicemente, in maniera negativa, perché non ne ha mai sentito parlare.
Un’altra questione è quella della scelta dei termini da considerare problematici: se spesso non riusciamo a trovarci tutti d’accordo sull’utilizzo delle parole nei contesti più delicati come, ad esempio, quello razziale, come possiamo progettare i filtri da fornire agli algoritmi? Non si finisce, anche in questo modo, per rinforzare la visione del mondo di una maggioranza, sopprimendo le altre?
Possibili soluzioni
Come si è detto, si tratta di temi particolarmente complessi e per cui non sembra esserci, al momento, una soluzione immediata o facilmente percorribile. Una speranza oggi si ripone nei modelli di intelligenza artificiale “semantica”, vale a dire sistemi che non si concentrano sui termini e sulla loro distribuzione probabilistica, ma sul significato e sui collegamenti tra concetti. Quindi, se da un lato bisogna essere consapevoli che dei testi “sintetici” prodotti da software non contengono, almeno per adesso, un’intenzione verso un contenuto preciso, dall’altro bisogna cercare di guidare le IA proprio nella direzione che renderebbe possibile una valorizzazione del senso delle frasi.
È fondamentale, come si è detto sopra, tenere in attenta considerazione l’impatto socioeconomico e ambientale delle nuove tecnologie, per evitare che il loro sviluppo acuisca disparità già presenti e ingiuste. Effettuata tale valutazione, bisognerà progettare dei sistemi di IA il più possibile trasparenti e comprensibili nel loro funzionamento, ponendo una particolare attenzione sulla qualità, più che sulla quantità, dei dati che vengono forniti per il machine learning. Sarà necessario individuare dei valori universalmente condivisi per guidare tali intelligenze e modellarle sulla migliore versione possibile dell’essere umano, senza lasciarle del tutto libere di imitare comportamenti tossici e discriminatori nei confronti di minoranze e soggetti deboli. Inoltre, anche nel momento dell’”allenamento” dell’IA può essere utile inserire un intervento umano come feedback per guidare il processo di apprendimento in una direzione non solo eticamente condivisibile, ma anche di buon senso, visto che questo è un altro elemento che spesso risulta carente nei testi elaborati dalle macchine. Insomma, per evitare che il GPT-3 sostenga che “una matita pesa più di un tostapane” o che inciti qualcuno al suicidio, o che elabori discorsi pregni d’odio e idee misogine, la misura minima da attuare è sempre la stessa: permettere alla macchina di interagire il più possibile con persone vere, per evitare che rimanga un semplice “pappagallo stocastico”.