Bias e disinformazione

GPT-3: i rischi del deep learning applicato al linguaggio naturale

GPT-3 è un programma che attraverso il deep learning traduce il linguaggio naturale, riesce a scrivere codice, crea contenuti: arriveremo a un linguaggio dominato dalle macchine? Gli errori algoritmici, il rischio di campagne di disinformazione, la vicenda Gebru

Pubblicato il 10 Mag 2022

Angelo Alù

studioso di processi di innovazione tecnologica e digitale

reti neurali - machine learning - GPT-3

Lo sviluppo del sistema GPT-3 di OpenAI sta consentendo di realizzare il progressivo perfezionamento di una rete neurale sempre più sofisticata e complessa in grado, tra l’altro, di scrivere con una capacità dialettica di argomentazione stilistica non facilmente distinguibile dalle tradizionali tecniche di stesura testuale umana.

Siamo all’inizio di un’evoluzione inesplorata di applicazioni destinate a trasformare profondamente la società nel futuro. Ma la domanda che ci poniamo è: grazie a GPT-3 l’Intelligenza Artificiale potrebbe sostituire del tutto l’Intelligenza Umana, come nuovo paradigma fondante l’era del dominio tecnologico a discapito della centralità dell’uomo?

GPT-3, ecco la nuova versione: ma il linguaggio “tossico” resta un problema

GPT-3: che cos’è e cosa permette di fare

Sono molti i progetti innovativi che sfruttano le potenzialità del sistema di auto-apprendimento di Intelligenza Artificiale per modellare, secondo i tradizionali processi umani basati sul “learning by doing”, le funzioni della rete neurale artificiale sulla falsa riga della struttura del cervello umano.

Ad esempio, AlphaFold: il sistema di intelligenza artificiale sviluppato da DeepMind fornisce specifiche previsioni sulla sequenza di amminoacidi che compongono il database del proteoma umano. L’obiettivo è ricostruire la struttura 3D di una proteina per accelerare con precisione la ricerca scientifica.

Dalla portata particolarmente rilevante è il programma GPT-3 (Generative Pre-Trained Transformer 3), creato da OpenAI, nel cuore della Silicon Valley.

Ultima frontiera del cd. deep learning, GPT-3 è emblema operativo del nuovo linguaggio computazionale di grandi dimensioni, che consente di rispondere anche a domande complesse con frasi complete, grazie ad una notevole fluidità discorsiva che rende performante l’abilità di conversazione degli algoritmi.

Alla luce del suo funzionamento tecnico, GPT-3 permette di:

GPT-3 fa emergere sin da ora rilevanti potenzialità ancora non del tutto esplorate, destinate a mutare l’attuale volto dell’Intelligenza Artificiale.

In altre parole, GPT-3 è in grado di creare contenuti adatti a qualsiasi finalità, alimentando in tempo reale la conversazione anche con differenti stili linguistici, sulla base di quanto appreso in precedenza.

GPT-3: i pregiudizi dell’algoritmo e il rischio di campagne di disinformazione

GPT-3 potrebbe forse rappresentare l’ultimo (mancante) tassello evolutivo del sistema di Intelligenza Artificiale, in grado di espandersi autonomamente verso inedite prospettive di sviluppo a prescindere dal controllo umano?

Difficile oggi saperlo con certezza, anche alla luce delle attuali criticità del modello, da cui potrebbero derivare errori di funzionamento e invisibili discriminazioni codificate nei relativi sistemi.

Errori e discriminazioni che, unitamente ai riscontrati limiti di imitazione degli stili sintattici del linguaggio umano, renderebbero il programma GPT-3 incapace di generare le proprie idee o prendere decisioni complesse, escludendo quindi la possibilità di conseguire un definitivo salto di qualità nell’elaborazione tecnologica di tali processi.

In tal senso, alcuni studi rilevano che il sistema GPT-3 tende ad amplificare la diffusione di pregiudizi mediante l’uso di stereotipi associati a informazioni etniche, religiose e di genere.

Di conseguenza, vengono prodotti processi decisionali distorti, che richiedono la necessità di una supervisione umana e automatizzata per ridurre l’incidenza di rischi suscettibili di alterare l’operatività delle applicazioni di Intelligenza Artificiale.

Ad esempio, il modello mostra talvolta l’esistenza di alcuni pregiudizi algoritmici collocando vicino alla religione islamica parole più violente di altre (“terrorismo”) rispetto alle parole “neutre” o positive assegnate al termine “ateismo”.

Non a caso, gli stessi sviluppatori di GPT-3 hanno informato gli utenti sulle implicazioni negative derivanti dall’uso di tale sistema, alla luce di una serie di evidenze che dimostrano i possibili effetti discriminatori razziali e di genere prodotti dalla tecnologia IA.

Non meno preoccupanti risultano i pericoli che il sistema GPT-3 può determinare rispetto alla circolazione di campagne di disinformazione.

Infatti, senza la possibilità di efficaci strumenti di controllo, può veicolare notizie false e fuorvianti attraverso l’utilizzo di “testi convincenti simili a quelli umani che potrebbero di fatto imporre, come ulteriore effetto collaterale, l’adozione di un linguaggio universale “dominante” alla stregua di un modello lessicale di Intelligenza Artificiale, senza riuscire a “catturare” le peculiarità linguistiche delle minoranze.

In tale prospettiva, resta centrale l’affidabilità dei modelli linguistici di grandi dimensioni, già da tempo evidenziata anche rispetto alle attività dei motori di ricerca (di cui si è occupato il Mit Technology Review), mediante l’utilizzo di sistemi di IA[1] che sfrutta gli strumenti di apprendimento automatico per potenziare in modo performante i risultati di ricerca.

Un esempio è il software “BERT” (Bidirectional Encoder Representations from Transformers) in grado di codificare, per gestire meglio le query di ricerca, tutte le sfumature conversazionali del linguaggio.

Emblematica la vicenda di Timnit Gebru legata alla sua attività svolta nell’ambito del team “Ethical AI Group” di Google, culminata nella discussa interruzione dei rapporti professionali tra la ricercatrice e il gigante di Mountain View a causa di divergenze sulle prospettive di sviluppo tecnologico dell’azienda, rese anche oggetto di pubblicazione di tweet e articoli sui media.

La ricerca condotta da Gebru (“On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”) ha esaminato le questioni problematiche associate alla tecnologia AI che analizza enormi database di linguaggio per creare il proprio testo simile a quello umano.

La ricerca ha evidenziato i potenziali pericoli di “pregiudizi” discriminatori nonché la crescita di emissioni di anidride carbonica e un incremento dei relativi costi ambientali, prospettando un possibile contrasto con le politiche ecologiche adottate dall’azienda e con i “Principi di intelligenza artificiale” formalmente recepiti da Google.

Conclusioni

Al contempo, secondo un approccio meno scettico, si intravedono i segni inediti che il sistema GPT-3 potrebbe imprimere allo sviluppo dell’Intelligenza Artificiale, rivoluzionando per sempre il linguaggio umano, grazie al perfezionamento di abilità sempre più sofisticate.

Abilità in grado di generare modalità di scrittura creativa, originale e fluente in svariati linguaggi di programmazione, al punto tale da rendere pervasiva la potenza di calcolo per processare il funzionamento dell’apprendimento automatico.

Chi definisce il processo decisionale da attivare per stabilire le “regole del gioco”, volte a garantire il funzionamento – corretto, trasparente e non discriminatorio – di tali sistemi?

Nell’ambito di una complessa governance globale prende, infatti, progressivamente forma la nuova fisionomia del potere (politico ed economico) delle Big-Tech rispetto al gap degli Stati sovrani, che riflette il rapporto asimmetrico tra la rapidità dell’evoluzione tecnologica e la stasi dei tradizionali policy maker rappresentativi del settore pubblico.

__________________________________________________________________

Note

  1. Come, ad esempio, l’architettura di rete neurale Transformer

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati