la riflessione

I chatbot intelligenti non faranno finire il mondo, ma serve controllo



Indirizzo copiato

Una delle caratteristiche dell’intelligenza umana è la discrezionalità, ed è una caratteristica desiderabile per la realizzazione di sistemi autonomi. Pensiamoci: se un’aspirapolvere robot molto intelligente decidesse di eliminare il nostro gatto, aspirandolo, nel nome della pulizia, unica ragione di esistenza?

Pubblicato il 25 mag 2023

Antonio Cisternino

Università di Pisa



shutterstock_2143357503.jpg (1)

Si parla molto dei rischi che l’intelligenza artificiale pone alla nostra stessa esistenza, ma allo stesso tempo continuiamo a svilupparla, cercando di tenerne sotto controllo comportamenti indesiderati. Sono passati sette anni da quando Microsoft ritirò il chatbot Tay perché insultava e diceva volgarità a tutti i suoi interlocutori: si trattava di un esperimento di un chatbot che apprendeva dall’interazione con le persone, aveva semplicemente appreso i comportamenti sbagliati fino a divenire non solo inutile, ma anche potenzialmente dannoso nei confronti delle fasce più deboli dei navigatori.

Gli effetti “tangibili” di ChatGPT

Sembra difficile che un chatbot possa far finire il mondo, in fondo sembra innocuo un sistema che “blatera” avendo a volte delle “allucinazioni” ovvero si confonde e dice cose errate. Anche senza l’abilità di influire sul mondo reale in realtà ChatGPT e i suoi cugini stanno già producendo effetti tangibili: ad aprile una corte pachistana ha usato, mettendo pure a verbale, GPT-4 per decidere in un caso se concedere o meno la libertà provvisoria; a marzo un americano con 100 dollari ha chiesto come farli fruttare a ChatGPT e seguendo le istruzioni ricevute è riuscito a capitalizzare ben 25.000 dollari evidenziando come in realtà queste tecnologie siano già in grado di influire sul mondo reale attraverso i propri utenti. C’è inoltre molta preoccupazione sull’affidabilità delle informazioni che l’AI generativa fornisce, a volte inesatte e capaci di influenzare il giudizio, soprattutto nella fascia della popolazione con meno spirito critico e sufficienti strumenti di valutazione delle informazioni ricevute. Infine, vi sono già i primi robot integrati con GPT, come ad esempio il robot Ameca che commenta quelli che sembrano veri e propri stati emotivi.

Intelligenza e controllo

La letteratura scientifica e fantascientifica si è posta per decenni il problema dell’autonomia di un’intelligenza artificiale, i romanzi di Asimov raccontano di come i robot riescano ad aggirare le tre leggi della robotica:

  • Un robot non può recare danno a un essere umano o, per inerzia, permettere che un essere umano venga danneggiato.
  • Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
  • Un robot deve proteggere la propria esistenza, purché tale autodifesa non contrasti con la Prima o con la Seconda Legge.

Il robot Daneel Olivaw generalizza la prima legge, di fatto aggirandola, interpretando l’umanità come “bene superiore” e quindi da proteggere collettivamente anche se questo debba causare qualche perdita di vita umana (e quindi contravvenendo alla prima legge).

Negli anni ’60 Norbert Wiener, padre della cibernetica, immaginava in un saggio macchine capaci di apprendere esibendo comportamenti imprevisti rispetto alla programmazione originale e potenzialmente indesiderabili. Nel suo saggio usava l’analogia con l’apprendista stregone di Goethe, in cui il giovane apprendista usa la stregoneria per fare le pulizie perdendone però rapidamente il controllo.

In fondo anche un aspirapolvere robot molto intelligente che osserva che il gatto di casa perde peli può decidere di eliminarlo aspirandolo nel nome della pulizia, unica ragione di esistenza, senza contraddire alcuna legge fondamentale.

Il punto è che una delle caratteristiche dell’intelligenza è quella di esibire una certa discrezionalità, ed è una caratteristica desiderabile per la realizzazione di sistemi autonomi. Ma la discrezionalità è anche una forma di libero arbitrio, è quindi essenziale trovare il modo per garantire sufficiente libertà ad un sistema basato su AI senza che però questo esibisca comportamenti indesiderati.

Anche uno dei pionieri dell’intelligenza artificiale, Herbert Simon, teorizzava che la complessità dei comportamenti umani dipendesse dalla complessa interazione con il mondo che ci circonda piuttosto che da un’intrinseca complessità del cervello umano. Da un punto di vista del comportamento di una IA, sotto questa ipotesi, la complessità dell’interazione potrebbe far emergere comportamenti indesiderati, non a caso Microsoft ha limitato (attualmente a 20) il numero di interazioni, per impedire che interazioni troppo complesse confondessero il modello di AI e lo portassero a violare la propria programmazione, che come è emerso è largamente espressa in linguaggio naturale come parte stessa del prompt. Non è un caso che Microsoft abbia usato GPT-4 nell’implementazione di Bing chat: l’ultima versione del modello di OpenAI supporta prompt 8 volte più lunghi rispetto a quelli consentiti nella versione GPT-3.5.

Ma la velocita a cui progrediscono ed evolvono questi sistemi non può non destare preoccupazioni: il sistema AutoGPT è capace di iterare le richieste al modello LLM per definire ed attuare in modo autonomo un piano. Ricercatori di Microsoft Research hanno recentemente pubblicato un lavoro scientifico per argomentare come GPT-4 cominci ad esibire comportamenti compatibili con la cosiddetta intelligenza artificiale generale, ovverosia una AI capace di adattarsi a contesti differenti.

Come è possibile controllare l’incantesimo che abbiamo fatto e non divenire l’incarnazione dell’apprendista stregone?

Uno steccato digitale

I modelli large language model (LLM) come GPT hanno un funzionamento concettualmente semplice: dato un input (il prompt) prevedono la parola tra le più probabili (introducendo un importante elemento di casualità nella scelta) che seguirà il prompt. Il comportamento “intelligente” deriva da due fattori principali: aver appreso con che probabilità una parola segue un’altra leggendo miliardi di testi (basti pensare che tutti i libri il cui testo era disponibile e che sono stati utilizzati per l’addestramento rappresentano un millesimo del testo usato per addestrare GPT-3.5). È come aver cercato di mostrare ad un bambino un enorme numero di frasi di senso compiuto così che possa “indovinare la prossima parola”, anche se non ha chiaro ancora il vero e proprio significato, non ne ha esperienza se non lessicale.

Come è possibile quindi “insegnare” ad una AI che un certo modo di dire è “errato”? Una tecnica pubblicata nel 2017, denominata “reinforcement learning from human feedback” (RLHF), mostra come sia possibile “insegnare” che un certo comportamento sia scorretto semplicemente fornendo feedback sul testo generato. Paradossalmente è necessario fornire ulteriore informazione per correggere il difetto nell’apprendimento, un aspetto che l’attuale normativa sulla privacy non prevede: la correzione del comportamento di un sistema può prevedere la cessazione del trattamento dei dati, non certo un ulteriore trattamento al fine di correggere l’informazione già appresa. Fornire feedback ha tra i suoi usi quello di alimentare il RLHF, e di fatto migliorare le prestazioni del modello.

In sostanza il problema che ci troviamo collettivamente ad affrontare è come convincere un algoritmo che genera testo tirando dadi a comportarsi in modo “corretto”. Ma se più individui chiamati Antonio Cisternino sono etichettati sia come ladro che scienziato, con una certa probabilità il modello potrà qualificarlo con entrambi gli aggettivi.

Eppure dall’esperimento di Tay siamo anni luce avanti: nonostante una parte significativa della popolazione mondiale stia cercando di convincere ChatGPT ad esibire comportamenti disdicevoli i risultati sono generalmente positivi e fa ancora notizia quando l’AI viene imbrogliata e costretta a dire cose scorrette oppure che non dovrebbe dire (come ha brillantemente dimostrato la richiesta di fornire siti Web che piratano contenuti video per evitare il pericolo, aggirando così la direttiva di non fornire informazioni di natura pericolosa come ad esempio fornire la lista di siti pirata). Ma resta ancora molto da fare, e numerose tecniche sono in discussione.

Una tecnica degna di nota è quella del “red teaming” (termine preso in prestito dai giochi di guerra), ovverosia la formazione di un gruppo il cui scopo è sperimentalmente mettere in crisi il modello cercando falle nel sistema che evita che siano generati contenuti indesiderati. Si tratta di un approccio empirico che sicuramente può contribuire a migliorare il modello, ma resta il fatto che con una dialettica appropriata, come nel caso della richiesta dei siti pirata, può aggirare le protezioni sviluppate a seguito delle falle individuate da questa tecnica.

Si stanno sperimentando ulteriori tecniche, incluse quelle che chiedono ad una AI “terza” di valutare l’output di un modello per decidere se si tratti un output corretto o meno.

L’era dei sistemi non deterministici

Abbracciare l’AI, almeno quella dei modelli generativi come GPT, richiede l’accettazione di sistemi il cui comportamento ha una natura per definizione casuale. I nostri sistemi giuridici non sono pronti a riconoscere il “libero arbitrio” alle macchine, ed esistono già sistemi che soffrono dall’”assenza di base giuridica” legata a questa nuova generazione di macchine.

Non si può negare che non vi siano rischi se anche uno dei pionieri delle moderne reti neurali come Goeffrey Hinton, padre dell’algoritmo di back propagation che è alla base delle reti neurali con cui si realizzano i sistemi AI, dopo aver lasciato Google abbia cominciato a lanciare allarmi relativamente alle AI e al rapido sviluppo.

Ma come sottolinea Antonio Damasio nel libro “L’errore di Cartesio”, l’intelligenza umana ha radici nell’interazione tra corpo e mente. Sono le emozioni, sintesi delle nostre esperienze corporali, a fornire “feedback” al nostro cervello e contribuire a determinarne il comportamento intelligente. In accordo a questa teoria dobbiamo allora cominciare a preoccuparci quando AI come GPT vengono collegate all’ambiente in modo che ricevano un feedback corporale e possano quindi cominciare ad evolvere i propri comportamenti.

È importante tenere presente che i grandi dibattiti su questi temi sono importanti ma non riguardano il nostro immediato futuro, è comunque importante che se ne parli e che chi sviluppa questi sistemi si ricordi che potrebbe mettere a rischio l’intera umanità seguendo uno sviluppo acritico di queste tecnologie.

Io mi permetto di essere ottimista, la storia è piena di commentatori che hanno predetto la fine del mondo all’apparire di un’innovazione, anche se sono grato di non possedere un gatto e che il mio aspirapolvere non sia, ancora, così intelligente.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3