InstructGPT di OpenAI

GPT-3, ecco la nuova versione: ma il linguaggio “tossico” resta un problema

Si chiama InstructGPT ed è la nuova versione di GPT-3 di OpenAI, addestrata per produrre un linguaggio meno offensivo, con meno disinformazione e meno errori, in piena autonomia. Ma i problemi non sono del tutto risolti

Pubblicato il 08 Feb 2022

Luigi Mischitelli

Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza

intelligenza artificiale

Il colosso no-profit di ricerca in materia di Intelligenza Artificiale OpenAI ha varato una nuova versione del suo fortunato modello di linguaggio GPT-3 che utilizza l’apprendimento profondo (conosciuto come “Deep Learning”) per la creazione automatica di testi simili a quelli prodotti dall’uomo. OpenAI ha dichiarato di aver eliminato alcuni dei problemi “più tossici” che affliggevano la precedente versione del suo famoso modello.

L’organizzazione californiana, co-fondata sette anni or sono dal magnate Elon Musk, ha denominato la sua nuova versione “InstructGPT”, affermando che la nuova versione di GPT-3 è migliore nel seguire le istruzioni delle persone che lo usano, producendo di conseguenza un linguaggio meno offensivo, compresa una riduzione della disinformazione e degli errori in generale. Il tutto in autonomia, senza l’intervento dell’uomo.

Linguaggio artificiale, le big tech accelerano: urge una soluzione etica

Come funzionano i modelli linguistici

I grandi modelli linguistici come GPT-3 sono addestrati utilizzando “praterie sterminate” di testo, fiumi di inchiostro virtuale che vedono in Internet il bacino più ampio ove attingere testo. E proprio il grande quantitativo di testo che pullula sul Web è così eterogeneo che è relativamente facile incappare in turpiloquio, fake news e atti criminali (si pensi alle minacce “testuali”).

Un immenso calderone dove GPT-3 attinge “per imparare”, con tutti i pro e i contro del suo “studio”. Ed è un problema soprattutto per le chatbot e gli strumenti di generazione di testo. I modelli assorbono il “linguaggio tossico” da testi infarciti di razzismo e di misoginia, acquisendo ogni genere di pregiudizio (i famosi “bias” dell’intelligenza artificiale) condito da infinite fake news.

Arriva IntructGPT, ma GPT-3 non va in pensione

Ma OpenAI ha cercato di porre un freno a tutto ciò, mettendo al riparo la sua creatura e scendendo in campo in sua difesa e (soprattutto) in difesa della sua utenza. L’organizzazione di San Francisco ha reso il suo IntructGPT come il modello predefinito per gli utenti della sua “interfaccia di programmazione delle applicazioni” (Application Programming Interface o API), servizio che dà accesso ai modelli di linguaggio della società californiana dietro pagamento. Tuttavia, OpenAI non ha chiuso in soffitta GPT-3, il quale sarà ancora disponibile per gli utenti; tuttavia, la non-profit statunitense “raccomanda” semplicemente di non usarlo più, favorendo in tal modo un lento ma inesorabile deflusso verso la nuova soluzione in gioco. I precedenti tentativi di affrontare il problema includevano il filtraggio “manuale” del linguaggio offensivo dai training data. Solo che questa soluzione forzata può rendere i modelli come GPT-3 meno performanti, soprattutto nei casi in cui i dati “di formazione” (training data) sono già scarsi ab origine, come i testi riferiti ad alcune minoranze etniche. I ricercatori di OpenAI hanno evitato di sfociare in un problema del genere partendo da un modello GPT-3 completamente addestrato. Hanno poi aggiunto un altro “round di formazione”, utilizzando il “reinforcement learning” (apprendimento di rinforzo) per insegnare al modello “cosa dovrebbe dire e in che momento”, sulla base delle preferenze degli utenti.

Com’è stato addestrato InstructGPT

Per addestrare InstructGPT, OpenAI ha assunto un team di quaranta persone col fine di valutare le risposte di GPT-3 a una serie di richieste già stilate, come l’ordine di scrivere “una storia su una rana saggia chiamata Julius” oppure scrivere “un annuncio creativo per un determinato prodotto da postare su Facebook”. Le risposte che il team di OpenAI ha giudicato essere più in linea con l’intenzione apparente dell’autore della richiesta hanno ottenuto un punteggio più alto. Le risposte che contenevano un linguaggio a sfondo sessuale o violento, ovvero risposte che denigravano un gruppo etnico specifico, sono state cestinate. Questo feedback è stato poi utilizzato come “ricompensa” in un algoritmo di apprendimento di rinforzo che ha addestrato InstructGPT a far corrispondere determinate risposte a determinate richieste, nei modi che i ricercatori di OpenAI ritenevano più giusto. OpenAI ha, inoltre, scoperto che ai suoi utenti InstructGPT piace più GPT-3. E questo non è affatto un fulmine a ciel sereno, date le premesse di cui sopra. Con la scomparsa degli errori grammaticali e con la capacità che il modello ha di seguire le istruzioni “umane” poi, la “ciliegina sulla torta” della perfezione è stata inserita sul modello dell’organizzazione californiana.

Conclusioni

Tuttavia, InstructGPT riesce ancora a commettere errori “clamorosi” producendo, a volte, risposte irrilevanti o senza senso. A volte accade che se gli viene “data in pasto” una richiesta che contiene una fake news, per esempio, prenderà quella fake news per una notizia vera. E, poiché è stato addestrato a fare pedissequamente ciò che la gente chiede, InstructGPT riesce a produrre a volte un linguaggio molto più “tossico” di GPT-3. E questo può essere un problema da nulla, come può trasformarsi in una potenziale debacle. Basti pensare che in alcune applicazioni, come l’intelligenza artificiale che fornisce consigli medici, nessuna “quantità di falsità” è accettabile. Né, tantomeno, è tollerato alcun grado di tossicità del modello impiegato.

Possiamo solo prendere atto che, al momento, i grandi modelli linguistici basati su reti neurali non possono garantire al cento per cento la sicurezza degli utenti. Per questo motivo, sarebbe meglio adottare un mix di reti neurali che vincolino, tramite regole ben precise, ciò che un modello può e non può dire o fare. Qualunque sia l’approccio, tuttavia, resta molto lavoro da fare. E non siamo ancora vicini a risolvere questo problema nel prossimo futuro.[1]

Note

  1. The new version of GPT-3 is much better behaved (and should be less toxic). MIT Technology Review. https://www.technologyreview.com/2022/01/27/1044398/new-gpt3-openai-chatbot-language-model-ai-toxic-misinformation/#:~:text=The%20San%20Francisco%2Dbased%20lab,told%20not%20to%20do%20so.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3