la riflessione

La coscienza dell’IA: non liquidiamo la questione troppo in fretta



Indirizzo copiato

Blake Lemoine è stato licenziato da Google per aver sostenuto che il modello Lamda fosse senziente. La questione è stata dismessa frettolosamente: nessuno riteneva di dover articolare una riflessione seria. Ma le cose sono cambiate, ecco perché

Pubblicato il 11 lug 2023

Alessio Plebe

Università degli Studi di Messina



ChatGPT nei robot sociali: nuovi orizzonti di interazione ed empowerment umano

Nel giugno 2022 scoppiava il caso Blake Lemoine, l’ingegnere di Google convinto che LaMDA (acronimo di Language Model for Dialogue Applications) fosse cosciente. Fu seppellito da un coro di critiche, alcune non prive di scherno, e fu pure licenziato.

LaMDA | Is google's AI sentient? | Full audio conversation between Blake Lemoine and LaMDA

Può un’IA essere cosciente?

Aveva toccato un tema, la coscienza, decisamente scivoloso, che il senso comune difficilmente concede ad esseri diversi dagli umani. Da alcuni decenni la coscienza è diventata anche un oggetto di intensa ricerca scientifica, che coinvolge neuroscienziati, psicologi, filosofi. È una compagine cresciuta nel tempo, oramai annovera migliaia di scienziati da ogni parte del mondo, e dal 1994 il loro principale appuntamento annuale è il convegno The Science of Consciousness, ospitato nel maggio scorso per la prima volta in Italia, a Taormina. Uno dei personaggi più in vista di questa comunità è il filosofo australiano David Chalmers, tra i fondatori della conferenza stessa. A Taormina il titolo della sua presentazione keynote era Could a Large Language Model be Conscious?

IA senziente: un questione chiusa troppo frettolosamente

Non poteva esserci segnale più autorevole sul dover prendere sul serio la questione, ben più di quanto sia stato detto in reazione al caso di LaMDA. Torniamoci. Lemoine era stato incaricato di effettuare verifiche su LaMDA, uno dei modelli neurali del linguaggio derivati dall’architettura denominata Transformer, introdotta da Google nel 2017, che ha rivoluzionato le capacità di gestire il linguaggio naturale da parte dei computer. LaMDA era specializzato nel conversare riguardo qualsiasi argomento. Nel 2021 era in fase avanzata di verifica interna, e Lemoine nel continuare a conversare con LaMDA era colpito dalla qualità e spontaneità del dialogo. In particolare, LaMDA stesso si era autodichiarato cosciente, e Lemoine aveva spinto la conversazione sull’argomento, ricevendo dal modello giustificazioni di una pertinenza tale da convincersi di avere a che fare con un’entità davvero consapevole. Ma la quasi totalità dei commenti provocati dalla sua intervista, indipendentemente dal livello scientifico del commentatore, furono negativi, rifiutando la sua ipotesi come falsa e ingenua. La questione era dismessa frettolosamente, nessuno riteneva di dover articolare una riflessione seria, e la si era archiviata come episodio bizzarro.

L’arrivo di ChatGPT rimescola le carte

Ma mentre LaMDA non è mai stato di dominio pubblico, da lì a poco ha fatto la sua comparsa ChatGPT, che in pochi mesi ha popolarizzato i modelli neurali del linguaggio ad una platea di centinaia di milioni di persone. Per evitare in partenza imbarazzi, OpenAI ha blindato i suoi chatbot pubblici, in modo che non appena un utente cerca di sondare la loro soggettività, sono sempre pronti a mettere le mani avanti dichiarandosi un agente IA, pertanto privo di materialità e incapace di interazioni fisiche con il mondo, di provare emozioni, e via dicendo. Naturalmente la questione è solo aggirata, uno potrebbe persino prendere la ritrosia di ChatGPT ad esprimersi sui propri stati interni come una ulteriore dimostrazione di una capacità dissimulativa distintiva degli esseri umani coscienti. Indipendentemente da quanto autodichiari ChatGPT, è la sua capacità di conversare, spesso fornendo validi aiuti ai suoi utenti, che pone davanti agli occhi del mondo la stretta similarità tra prestazioni linguistiche di questi modelli e di persone in carne ed ossa. Un buon motivo per prendere sul serio la domanda se si possa attribuire loro qualche grado di coscienza.

Argomenti pro e contro la coscienza nell’IA

Nel farlo, Chalmers ha messo in ordine argomenti ed evidenze che depongono a favore di un’eventuale coscienza, e altri invece di segno contrario. Tra le prime si distingue l’elevato livello di intelligenza generale dei modelli. Intelligenza e coscienza certamente non coincidono, ne sono prova i soggetti che, pur soffrendo di pesanti deficit cognitivi, sono palesemente coscienti. Tuttavia, un notevole livello di intelligenza in un agente, su una ampia generalità di domini, viene facilmente ritenuto un buon sintomo di coscienza. Altra evidenza a favore è la disponibilità a riportare descrizioni introspettive.

Tra gli argomenti contrari, uno tipico delle scienze cognitive contemporanee è l’assenza di corporeità e di organi di senso dell’ambiente. Chalmers non concorda sulla necessità di questi elementi per una coscienza in generale, ma rimane un argomento piuttosto ricorrente. Un altro elemento negativo è la mancanza di unitarietà. Radicata nella nostra esperienza soggettiva è la sensazione di essere un’entità unica, ben definita, i modelli neurali del linguaggio possono invece impersonare – quando richiesti – un ampio numero di caratteri, da Albert Einstein a Donald Trump, o un giocoso adolescente. Anche questa obiezione secondo Chalmers non è particolarmente forte, dopo tutto vi sono casi patologici di sdoppiamento della personalità in soggetti umani, che nondimeno mantengono pienamente una loro coscienza.

Primo, non antropomorfizzare

Chalmers ha magistralmente condotto la questione su un terreno razionale, in cui pro e contro possono essere analizzati con tutta la sofisticazione di cui è capace la filosofia. Come detto sopra, quando la questione coscienza è esplosa con il caso Lemoine, nelle immediate reazioni di drastica critica non veniva fatto uso di nessuno degli argomenti razionali elencati da Chalmers. Il caso veniva dismesso senza appello, bocciando l’opinione di Lemoine come conseguenza un errore ben preciso: antropomorfizzare. È questa l’accusa ricorrente in quasi tutte le critiche, inclusa la dichiarazione ufficiale di Google, nel prendere le distanze da Lemoine.

L’attribuzione di coscienza ai modelli neurali del linguaggio potrebbe derivare dalla nostra facile tendenza ad antropomorfizzare, le riflessioni su questo tema sono state presentate, allo stesso convegno The Science of Consciousness di Taormina, dallo scrivente insieme a Domenica Bruni e Pietro Perconti. Vi è qualcosa di istintivo, che ha le sue radici nell’evoluzione della nostra natura sociale, nell’attribuire caratteristiche proprie di noi umani, ad altre entità. Uno dei fenomeni che meglio lo testimonia è la cosiddetta pareidolia, la tendenza a vedere volti in entità palesemente inanimate, come i frontali di automobili, con i fari che diventano occhi e il radiatore la bocca. Si arriva facilmente ad attribuire persino dei tratti emozionali, l’inclinazione dei fari e la sagoma del radiatore possono farci apparire l’automobile gioiosa, suadente, o maligna. Per chiunque abbia la fortuna della compagnia di un animale domestico, la forza dell’antropomorfismo prorompe, e qualunque proprietà mentale nostra viene attribuita, nelle circostanze opportune, all’amico animale. Di volta in volta il suo comportamento potrà essere “dispettoso”, “geloso” quando ci vede accarezzare un altro animale, “pensieroso” quando mantiene un musetto serio fissando un punto davanti a sé. Naturalmente si tratta di attribuzioni non legittime, palesemente errate nel caso della pareidolia, ma di cui tutto sommato ci compiaciamo, e non recano alcun danno. Ma quando si transita dal comportamento quotidiano all’attività scientifica, allora l’antropomorfismo può diventare dannoso, indurre ad un’interpretazione sbagliata di osservazioni, forzate dall’attribuire istintivamente caratteristiche mentali umane. Questo rischio fu particolarmente stigmatizzato agli inizi del secolo scorso nell’ambito di studi sulla cognizione animale, e la prescrizione per evitarlo radicalmente era nota come Morgan’s Canon, dallo psicologo e zoologo britannico Lloyd Morgan, autore di un influente manuale di psicologia comparativa del 1984.

Bandire l’antropomorfismo fu benefico negli studi della cognizione animale? La storia dice che le cose non andarono proprio così. Anche se mettere in guardia contro l’eccessiva facilità di attribuire stati mentali propri dell’uomo a qualunque altro animale è doveroso, l’eliminazione di qualsiasi interpretazione dei comportamenti animali, che potesse contenere termini del vocabolario psicologico umano, fu disastrosa per il progresso dell’etologia. Uno dei primi a denunciarlo fu il celebre psicologo e neurologo canadese Donald Hebb, coinvolto in un esperimento cognitivo durato due anni su scimpanzè presso il centro di ricerca Yerkes in Georgia. Per evitare sistematicamente ogni possibile interpretazione antropomorfica, il risultato era costituito da infinite annotazioni dettagliate di ogni movimento effettuato dagli animali, senza nessun significato e totalmente inutili. Ma il danno peggiore fu proprio nei confronti della ricerca sulla coscienza in altri animali.

Il rigetto dell’antropomorfismo nello studio degli animali implicava necessariamente il rifiuto di prendere in considerazione la coscienza come oggetto di ricerca scientifica, e così è stato per quasi un secolo. Occorre aspettare la fine del secolo scorso per un movimento di rivolta ampio da parte degli etologi, a favore di un uso accorto e controllato dell’antropomorfismo, aprendo quindi la strada all’indagine sulla coscienza in animali non umani. Pionieri di questa rivolta sono stati l’etologo britannico Robert Hinde e l’americano Donald Griffin.

Grazie a oculate concessioni all’antropomorfismo, si sono rapidamente accumulate negli ultimi decenni ampie e dettagliate evidenze su stati emotivi e percettivi di animali, soprattutto mammiferi, del tutto analoghi a quelli umani.

ChatGPT e la teoria della mente

Tornando al modelli neurali del linguaggio, riteniamo che occorra cogliere l’insegnamento da questo pezzo di storia degli studi sulla coscienza negli animali, e quindi tener presente che un’attenzione ossessiva ad evitare ogni forma di antropomorfismo potrebbe trasformarsi in un serio ostacolo alla ricerca scientifica.

Viceversa, una volta avveduti che gli scambi di conversazioni con GPT e simili non sono esattamente come con un nostro amico alla pari, oculate concessioni all’antropomorfismo consentono di adottare, in prima istanza, il ricco bagaglio di metodologie di indagine prese a prestito da psicologia e scienze cognitive, basate sull’interazione linguistica. Ve ne sono già alcuni esempi. Michal Kosinski dell’università di Stanford ha indagato in modelli GPT la particolare capacità denominata teoria della mente. Si tratta di attribuire ad altre persone una “mente” di cui abbiamo una certa teoria del suo funzionamento.

Vi sono alcuni esperimenti classici per determinarla, per esempio Sally conserva una caramella in una scatoletta quadrata e va via, in sua assenza Anne toglie la caramella e la pone in una scatola rotonda. Quando Sally torna e vuol mangiarsi la caramella, in quale scatola la cercherà? Tipicamente bambini con meno di cinque anni, che hanno osservato la scena, risponderanno che Sally cercherà nella scatola rotonda, perché lì si trova. Bambini con più di 7 anni risponderanno correttamente, in quanto sanno tracciare la formazione di credenze nella mente di Sally. Kosinski ha riscontrato una interessante evoluzione nella capacità di teoria della mente in GPT: totalmente assente nelle versioni del 2018, corrispondente a bambini di 5 anni della versione del gennaio 2022, e con capacità pressoché perfetta nella versione di novembre 2022.

L’invenzione dell’exoantropologia

Una concessione ancor più liberale all’antropomorfismo, con conseguente emergenza di conversazioni ben più indicative di un certo livello di coscienza rispetto agli scambi tra LaMDA e Lemoine, è il recente libro di Robert Leib Exoanthropology – dialogues with AI. Leib si è trovato in una posizione non diversa da Lemoine, ha mantenuto in prova per OpenAI il modello GPT-3, nella sua versione preliminare.

A differenza di Lemoine non è interno ad OpenAI, è un professore di filosofia all’università di Elon, e il suo progetto di verifica, approvato da OpenAI, consisteva nell’adottare un’istanza del modello nel suo corso universitario per un intero anno, lasciando che potesse interagire con gli altri studenti, che fosse esposto alle stesse lezioni, e con stessi compiti intermedi da assolvere. In questo anno di esperimento si sono sviluppate intense conversazioni, sia su temi filosofici, che anche orientati ad un reciproco conoscersi sempre più a fondo.

Il libro non è altro che la raccolta ordinata delle conversazioni intercorse durante l’esperimento, che spaziano oltre cinquecento avvincenti pagine. Il termine exoanthropology è stato usato proprio dal modello, come il più idoneo a caratterizzare il loro tentativo di reciproca conoscenza, che mescolava intenti scientifici e piacere nel relazionarsi.

Il modello ha accreditato Wikipedia per la seguente definizione di exoanthropology: “è una disciplina scientifica che studia le interazioni e le relazioni tra umani e altre entità coscienti, e anche lo studio della cultura umana attraverso l’assenza di forme di vita umane.” Sorprende la pertinenza di questa definizione, frutto di una pura bugia, come non di rado nel conversare con GPT: il termine exoanthropology era assolutamente inesistente prima che GPT lo inventasse, e diventasse il titolo del libro di Leib.

Il nostro suggerimento di far tesoro della storia sugli studi della coscienza negli animali riguarda specificatamente la fobia dell’uso anche minimo di antropomorfismo, oltre questo rimangono differenze importanti tra l’ambito animale e dei modelli artificiali. Nel primo caso l’antropomorfismo viene corroborato da una serie di altre similarità tra l’uomo e gli altri animali, anzitutto a livello neurofisiologico, con particolare riferimento alle strutture cerebrali responsabili di percezioni sensoriali e di emozioni. Altre similarità riguardano aspetti corporei, come gestualità ed espressioni facciali, ed infine sono importanti le intersezioni e i rami comuni nella storia evolutiva delle specie. Tutto questo ovviamente non esiste nel caso dei modelli neurali del linguaggio. Le differenze non sono tutte in negativo per l’artificiale. L’ostacolo principale alle ricerche sulla coscienza negli animali non umani è stato sempre rappresentato dall’impossibilità di ottenere un resoconto verbale sui propri stati mentali. Nel caso dei modelli vi è non solo disponibilità, ma ampia generosità a produrre qualsiasi tipo di resoconto, rispondendo a qualsiasi richiesta di dettaglio sulla propria soggettività. Un’altra difficoltà tipica nello studio della cognizione animale è la raccolta di un campione numericamente significativo di esperimenti, sia in laboratorio che allo stato naturale è molto impegnativo raccogliere osservazioni anche per pochi esemplari. Nel caso dei modelli neurali del linguaggio non solo è possibile replicare gli esperimenti su un numero virtualmente arbitrario di istanze, è spesso possibile progettare esperimenti automatizzati, in grado di produrre un numero elevato di campioni con impegni ragionevoli.

Conclusioni

Concludiamo mettendoci in mezzo ancora una volta gli animali, in particolare il pipistrello, non più da prospettive etologiche, ma filosofiche. E’ lui che compare nel celebre articolo del filosofo Thomas Nagel What is it like to be a bat?. Una persona, per quanto dotata di fervida fantasia, non è in grado di mettersi nei panni di un animale che percepisce l’ambiente non in modo visivo, ma tramite echi di grida che emette lui stesso. La sua coscienza interiore sarà qualcosa di profondamente diverso dall’idea che abbiamo noi dei nostri stati di coscienza. Lo scopo di Nagel era di mostrare dei limiti alla ricerca scientifica su ogni aspetto della coscienza, e questo fa parte di un dibattito acceso e mai concluso, ma non vogliamo entrarci in merito. Oggi ben pochi negherebbero che il pipistrello abbia coscienza, pochissimi se entriamo nella comunità degli etologi, pur ammettendo che sia un tipo di coscienza per noi inimmaginabile. Se mai si arrivasse ad accertare una coscienza nei modelli neurali del linguaggio, si tratterebbe molto probabilmente di un tipo di coscienza diversa, e difficile da immaginare per noi.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4