“E così un giorno saremo nei ricordi dei figli in mezzo a nipoti e a persone che non sono ancora nate”. Così nel romanzo Gli anni, la Premio Nobel per la letteratura 2022, Annie Ernaux. La questione della nostra sopravvivenza, dopo la nostra morte, è un tema classico della letteratura. Come possiamo evitare ciò che forse ci spaventa più della morte stessa, l’oblio?
Le risposte principali che ci siamo dati finora sono state due: le opere, dei più diversi tipi, vale a dire la fama, un’invenzione, un gesto, un’azione che permetterà ai posteri di ricordarsi di noi; oppure i nostri cari, le storie famigliari tramandate di generazione in generazione che permettono ai lontani nipoti, a persone che non conosceremo mai, di sapere almeno qualcosa di noi.
Ricreare una personalità
La rivoluzione digitale a cui stiamo assistendo e che sta trasformando molteplici aspetti della nostra esistenza e delle nostre azioni più quotidiane, però, sembra pronta a cambiare anche questo. Così, dei ricercatori dell’Australian Institute for Machine Learning (Università di Adelaide) hanno cercato di realizzare un chatbot allenato sull’artista Laurie Anderson e il suo defunto marito Lou Reed. L’idea è quella di poter ricreare una personalità, facendo dell’assistente chatbot una sorta di sostituto dell’umano. Il sistema potrebbe iniziare quando l’individuo è ancora in vita, apprendendo le sue abitudini, i suoi modi di esprimersi, ma sopravvivergli e consentire a chi ci sopravvivrà di parlare ancora con noi. Ma è davvero possibile sostituire i nostri cari e noi stessi con un sistema di LLM? Fino a che punto si tratta di una metafora o di una invitante suggestione? Dovremmo preoccuparci della nostra salute psicologica?
Sembra infatti fin troppo scontato temere una perdita del senso di realtà, laddove l’illusione di parlare con una persona cara defunta sia forte e il lutto difficile da superare. Anzi, una situazione di questo genere potrebbe rischiare di rendere più difficile il superamento del lutto stesso. Ricorderete forse la puntata di Black Mirror intitolata in italiano Torna da me, in cui si dà uno scenario di questo genere con dapprima un bot e poi un vero e proprio robot in carne sintetica che sostituisce il marito defunto della protagonista e che finisce tragicamente, nella logica della serie televisiva di far risaltare gli aspetti problematici delle nuove tecnologie e di un loro uso non sufficientemente consapevole.
Da un lato, infatti, siamo portati a pensare di essere qualcosa in più di meri calcoli e statistiche e che, in una relazione stretta, di qualunque tipo essa sia, la componente potremmo dire biologica, sia fondamentale: il robot non mangia, non dorme e manca di alcuni tratti fondamentali del carattere del defunto. E senza questi caratteri, avremo sempre l’impressione di trovarci con un alieno, un qualcosa di troppo diverso da noi. Dall’altro lato, però, l’illusione di parlare con un essere umano, grazie ai sistemi di LLM è davvero forte e ci spinge a mettere in dubbio anche questa unicità del linguaggio e della comprensione del linguaggio come caratteristiche peculiari e insostituibili dell’essere umano.
Potrebbe trattarsi, secondo un recente articolo pubblicato su The Economist, di una ulteriore ferita inferta al narcisismo dell’essere umano, secondo la nota espressione di Freud che individuava in Copernico, Darwin e se stesso le tre figure ad aver perpetrato tale ferita, togliendo l’essere umano dal centro, e quindi dal trono, dell’universo, del mondo vivente e della propria anima.
Cosa ci insegnano i sistemi LLM?
Liquidare i sistemi di LLM come “meri balbettii”, infatti, non è più così semplice, come poteva esserlo per chatbot meno complessi e ormai datati. Così, per esempio, secondo le parole di Blaise Agüera y Arcas (2021), leader di un gruppo di Alphabet che lavora su prodotti alimentati dall’Intelligenza Artificiale. A suo avviso, contrariamente al ben noto esperimento della stanza cinese di John Searle (1980), i modelli che conosciamo oggi hanno caratteristiche tali per cui non possiamo davvero distinguerli da noi, quanto alla capacità di conoscere il vero significato delle cose. E questo sarebbe dimostrato dalla loro capacità di scegliere in modo affidabile il significato giusto quando si traducono frasi grammaticalmente ambigue o dalla capacità di spiegare battute e giochi di parole.
Secondo Agüera y Arcas, i sistemi di LLM hanno molto da insegnarci, su diverse cose, come la natura del linguaggio, della comprensione, dell’intelligenza, ma anche della socialità e della personalità e “poiché lo stato interiore di un altro essere può essere compreso solo attraverso l’interazione, non è possibile dare una risposta oggettiva alla domanda su quando un ‘esso’ [it] diventa un ‘chi’ [who] – ma per molte persone, le reti neurali che girano sui computer probabilmente attraverseranno questa soglia in un futuro molto prossimo”.
La concezione di identità e personalità
Le preoccupazioni (o perlomeno le constatazioni), quindi, riguardano più in generale anche un possibile cambiamento della nostra concezione di noi stessi e, di conseguenza, della nostra identità sia come specie sia come singoli individui.
Se dovessimo iniziare ad accettare il fatto che gli esseri umani non sono altro che calcoli e statistiche, ciò stesso potrebbe influenzare e forse anche cambiare radicalmente il modo in cui pensiamo a noi stessi. Sembra infatti esserci qualcosa di fondamentalmente irrisolvibile nella domanda “Quali sono i requisiti minimi per la personalità?”, e a molti sembra probabile che le nostre norme e i nostri sentimenti attorno alla personalità e alla attribuzione di personalità a individui continueranno a evolversi nel tempo, come hanno fatto negli ultimi secoli, generalmente in direzione di una maggiore inclusione. In questo senso, ricordiamo la proposta già del 2017 (Risoluzione del Parlamento Europeo) di introdurre anche giuridicamente una nuova forma di personalità, la “persona elettronica” per ovviare, in questo caso, a diverse questioni legali che sorgono in casi di controversie e attribuzioni di responsabilità.
Qui, però, siamo a un livello ulteriore, tale per cui si pretende di attribuire a un sistema computazionale non solo personalità giuridica, ma anche una sociale e, potremmo dire, morale sulla base di una impossibilità di distinguere tra esseri umani e LLM. La questione che sembra riproporsi allora è la medesima di sempre: vogliamo continuare a voler distinguere gli esseri umani da ciò che umano non è (e allora possiamo puntare sulla biologia, per esempio) o cercare di sfruttare le nuove tecnologie a nostro vantaggio per migliorarci come esseri umani? In questo secondo caso, non è tanto importante sapere cosa conta come vero linguaggio, vera conoscenza, personalità, e così via, quanto piuttosto cercare di capire cosa può essere nocivo per noi, e in che misura, senza aver paura di dover cambiare, che sia solo in parte o radicalmente, concetti a cui siamo abituati, come quello di identità personale.
Cosa vuol dire possedere una certa identità? Possedere un corpo? O la nostra identità può essere tramandata, non più solo nei racconti di chi ci ha conosciuto in vita, non più solo nelle fotografie, nei filmati, nelle cose che abbiamo detto, scritto, postato…ma anche, perché no, in un bot allenato a parlare (e pensare) proprio come avremmo fatto noi? In che modo una possibilità di questo genere può esserci d’aiuto in situazioni difficili, invece che intrappolarci in una tragica illusione?
Una presa di posizione più neutrale nei confronti della tecnologia può ricordarci come questa non sia nociva di per sé, ma lo è solo quando non siamo preparati ad accoglierla e non abbiamo avuto la possibilità di riflettere sui significati, positivi e negativi, che può possedere.
Bibliografia
“How AI could change computing, culture and the course of history”, The Economist, April 20, 2023
Searle, John (1980). “Minds, Brains and Programs”, Behavioral and Brain Sciences, 3: 417–57 [Preprint disponibile al link https://web-archive.southampton.ac.uk/cogprints.org/7150/1/10.1.1.83.5248.pdf]