L’intelligenza artificiale ha percorso un lungo cammino dalla sua origine, e con l’avvento dei modelli linguistici generativi sembra avvicinarsi sempre più al superamento del celebre test di Turing.
Tuttavia, le critiche non mancano e riportano al centro del dibattito la distinzione tra coscienza e intelligenza.
Addentriamoci allora nel funzionamento dei modelli IA basati su reti neurali, esplorando come questi possano essere utilizzati come strumenti per lo studio della mente umana econtribuire a una migliore comprensione della coscienza e dell’intelligenza.
Cartesio e il dubbio radicale sull’esistenza di un mondo esterno
Il dubbio ce lo ha insinuato Cartesio, e poteva essere altrimenti? Molti anni dopo la notte dell’illuminazione, un’esperienza quasi mistica che lo colse il 10 novembre 1619 a Neubourg quando intravide i tratti della filosofia moderna. In quelle notti di meditazione quasi buddistica, accanto al focolare del suo buen retiro olandese (“chiuderò gli occhi, mi tapperò le orecchie, disconnetterò tutti i sensi”), Cartesio giocò a dubitare di tutto per poi dimostrare di nuovo sostanzialmente ciò in cui già credeva. Le dimostrazioni sono passate, ma il dubbio ci è rimasto. In particolare, il dubbio radicale sull’esistenza di un mondo esterno, indipendente dalla nostra coscienza e rivelato attraverso i sensi, porta con sé anche il dubbio sull’esistenza di altre coscienze.
Cartesio non si sofferma molto su questo aspetto, ma è chiaramente una conseguenza dei suoi presupposti: se dubitiamo dell’esistenza di oggetti esterni di cui abbiamo esperienza mediata dai sensi, a maggior ragione possiamo dubitare dell’esistenza di altre coscienze, di cui abbiamo una conoscenza ancora più indiretta, dal momento che finora nessuno ha trovato il modo di accedere direttamente a un flusso di coscienza che non sia il proprio. E allora non potrebbe essere, per esempio, che siamo circondati da automi con sembianze umane talmente perfette da trarci in inganno? Cartesio considera l’ipotesi, ma la scarta argomentando che le macchine non potrebbero mai “usare la parola come facciamo noi per comunicare agli altri i nostri pensieri” (Discorso sul metodo, 1637). Comprensibilmente, Cartesio non riusciva a concepire la possibilità che una macchina possa padroneggiare talmente bene il linguaggio da ingaggiare un essere umano in un dialogo sensato.
Il test di Turing: definizione e origine
È interessante osservare come proprio il linguaggio sia alla base del celebre test di Turing, ovvero un metodo per rilevare se una macchina è cosciente proposto dal matematico inglese Alan Turing in un fondamentale articolo del 1950, “Computing Machinery and Intelligence”: “Propongo di considerare il seguente problema: le macchine possono pensare?”. Alan Turing notoriamente propose una definizione operativa di pensiero: se il comportamento esterno dell’oggetto che stiamo esaminando è indistinguibile da quello di un essere pensante, allora quell’oggetto si deve definire capace di pensiero. Propose anche di valutare tale comportamento attraverso sequenze di input e output in linguaggio naturale. In parole povere, se un esaminatore, dialogando con una macchina, non riesce a distinguerla da un essere umano, allora dobbiamo concludere che la macchina è pensante.
I modelli linguistici generativi e il superamento del test di Turing
Quando Turing propose il suo famoso test nessuno riusciva a immaginare come una macchina avrebbe potuto superarlo senza essere in qualche modo cosciente.
Oggi i cosiddetti modelli linguistici di grandi dimensioni (large language models o LLM, come per esempio il general pre-trained transformer alla base della popolare applicazione ChatGPT sviluppata da Open AI) hanno riportato l’attenzione sul test di Turing. Nell’ultimo test di massa effettuato coinvolgendo un milione e mezzo di valutatori umani (D. Jannay et al., “Human or not? A gamified approach to the Turing test”, 2023), in seicentomila casi il valutatore non ha riconosciuto la macchina dietro le risposte. Ci si chiede quale sarebbe stato il risultato finale se il test fosse stato effettuato ai tempi di Turing, con valutatori ignari dell’esistenza e delle caratteristiche degli LLM, e se avrebbe posto problemi ai valutatori in misura ancora maggiore. A fronte di questi risultati tuttavia non è immediato, ovviamente, riconoscere che gli LLM sono coscienti, ma chiedersi invece se il test di Turing sia sufficientemente discriminativo.
Le critiche al test di Turing e la distinzione tra coscienza e intelligenza
Molti, solidi indizi ci portano a non riconoscere una coscienza ai modelli di IA, anche quelli che in situazioni particolari hanno creato qualche problema ai valutatori nell’esecuzione del test di Turing. Uno dei problemi in questo tipo di indagine è che non esiste nessun metodo standard e garantito per rilevare la coscienza e misurare l’intelligenza di un modello computazionale. In effetti, Turing non formulò mai una procedura dettagliata per il suo famoso test, considerandolo più una sorta di esperimento mentale. Ragione per la quale l’esito del test dipende fortemente da come viene eseguito nella pratica. Per esempio, quanto dovrebbe durare il dialogo? L’esaminatore dovrebbe essere una persona qualunque, oppure uno specialista come il Deckard di Blade Runner, perfettamente a conoscenza dei punti deboli dell’IA? Il test dovrebbe usare solo il linguaggio o sono ammesse anche altre modalità di interazione? Inoltre, siamo sicuri che il test, così concepito, sia davvero in grado di discriminare un’entità cosciente? È concepibile un’entità intelligente ma non cosciente? Un modello avanzato di IA potrebbe superare qualsiasi test di questo tipo senza per questo essere cosciente o intelligente? Viceversa, potrebbe un modello avanzato di IA non superare il test ma essere comunque dotato di “intelligenza”, benché diversa da quella umana?
Paradossalmente, il fatto che gli ultimi straordinari sviluppi dell’IA abbiano moltiplicato le domande è un buon segno. Significa che la conoscenza sta avanzando, che le questioni rivelano nuovi aspetti, che occorre fare nuove distinzioni. Per esempio, la distinzione fra coscienza, intelligenza, comprensione e espressione linguistica. Finora abbiamo avuto sotto gli occhi un unico esempio di entità che riunisce in sé tutti questi aspetti: noi stessi. Perciò facciamo fatica a immaginare entità che possono esprimersi fluentemente in linguaggio naturale senza essere coscienti, o senza comprendere quello che dicono. Ma i recenti sviluppi ci hanno messo di fronte a tutte queste possibilità. Per comprendere meglio come ciò sia possibile, è necessario descrivere brevemente come funzionano questi modelli di IA.
Funzionamento dei modelli di IA: reti neurali e addestramento
Storicamente, si sono tentate due strade per realizzare un’intelligenza artificiale: una basata sulla logica e il formalismo simbolico e una sulla simulazione della struttura di base del cervello, ovvero le reti di neuroni. Benché la prima abbia dato qualche risultato apprezzabile, nonostante gli sforzi, non è mai arrivata a realizzare compiti che a noi sembrano semplicissimi, come per esempio riconoscere un’immagine, oppure tradurre un testo, un compito più complesso ma sempre lontano dalle vette del pensiero e della creatività umane. Anche l’approccio a reti di neuroni sembrava stagnante fino a qualche anno fa. Poi c’è stata l’esplosione degli ultimi anni, che sembra aver dimostrato come, in fatto di intelligenza, le dimensioni contino. Solo quando i modelli artificiali hanno raggiunto un numero di parametri paragonabile al numero di neuroni del cervello umano (circa cento miliardi) si sono cominciati a vedere risultati incoraggianti.
L’IA come strumento per lo studio della mente umana
Certo, le regole matematiche che descrivono come le reti neurali artificiali si comportano sono molto più semplici di quelle che presiedono al funzionamento dei neuroni, ma il principio di base sembra lo stesso: una rete di nodi di calcolo interconnessi che propaga un segnale in ingresso (per esempio, l’immagine di un gatto) e lo trasforma durante il percorso per ottenere un risultato in uscita (la decisione, o inferenza finale: è proprio un gatto!). Come il segnale in ingresso viene trasformato dipende dal valore di miliardi di parametri del modello matematico, valore che non è stabilito a priori o dedotto mediante una qualche regola logica, ma viene appreso durante una fase di addestramento in cui vengono presentate al modello molte immagini diverse e un algoritmo ne regola finemente tutti i parametri interni finché il modello non riconosce correttamente le immagini contenenti un gatto. Con questi semplici mattoni, ma interconnessi in una struttura molto complessa, possiamo simulare alcune delle funzioni che normalmente associamo all’intelligenza. Nel caso specifico dei modelli linguistici generativi, il modello matematico viene addestrato su una quantità enorme di testi di ogni genere al fine di apprendere la distribuzione statistica dell’espressione linguistica umana. In tal modo il modello riesce a produrre testi sensati in linguaggio naturale generando passo per passo la parola successiva più probabile.
Alcuni hanno voluto sminuire questo tipo di IA generativa dichiarandola un semplice pappagallo statistico, sulla scia della linguista americana Emily Bender (Bender et al., “”On the Dangers of Stochastic Parrots”, 2021). Sebbene questa definizione sia compatibile con il funzionamento interno dei modelli linguistici attuali, credo che sia anche ingenerosa. Secondo alcuni esperti, infatti, questo è esattamente quello che fa in continuazione il cervello umano senza che noi ne siamo coscienti. Scrive Marco Magrini nel suo libro “Cervello, manuale dell’utente”: “Mentre ascoltiamo un bravo docente, il nostro cervello analizza automaticamente i suoni, le sillabe e le parole cercando di prevedere i suoni, le sillabe, le parole e persino le idee successive”.
Del resto, l’IA ha cominciato a fare progressi concreti quando ha abbandonato l’obiettivo, troppo ambizioso in questa fase, di ricreare un’intelligenza comparabile o superiore a quella umana, concentrandosi sullo sviluppo di singole funzioni, come riconoscere le immagini, tradurre un testo, giocare a scacchi, ecc. La domanda è: una volta che avremo tutti i mattoni, potremo metterli insieme per costruire un’intelligenza completa simile, o addirittura superiore, a quella umana? Secondo la colorita analogia della cipolla proposta da Alan Turing: “Esaminando le funzioni della mente troviamo alcune operazioni che possiamo spiegare in termini puramente meccanici. Ma questa cosa, diciamo allora, non corrisponde alla vera mente: è una sorta di buccia che dobbiamo togliere se vogliamo raggiungere la mente vera e propria. Ma poi ci troviamo di fronte a un ulteriore strato da sbucciare. Procedendo in questo modo arriveremo mai alla mente ‘reale’, o alla fine troveremo uno strato che non racchiude più nulla?”.
Verso una migliore comprensione della coscienza e dell’intelligenza
Da questo punto di vista, gli sviluppi dell’IA ci stanno offrendo una straordinaria opportunità di progredire nello studio di uno dei più grandi misteri rimasti, ovvero l’origine e la natura della coscienza e dell’intelligenza umane. Una prima svolta nella direzione giusta è stata possibile grazie ai progressi delle neuroscienze e allo sviluppo di strumenti in grado di monitorare l’attività del cervello. Questo approccio più umile e sperimentale ha portato molti più frutti di secoli di speculazioni astratte e ci ha mostrato quanto fosse lontano dalla verità il concetto di Cartesio della mente come una sostanza completamente staccata e indipendente dal corpo.
Conclusioni
Oggi sappiamo che la mente è inestricabilmente legata al corpo “in una incessante coreografia interattiva. I pensieri formati nel cervello possono indurre stati emozionali poi eseguiti dal corpo, mentre quest’ultimo può modificare il paesaggio cerebrale e pertanto il substrato dei pensieri” (Antonio Damasio, “Il Sé viene alla mente”). Allo stesso modo, la possibilità di creare modelli computazionali delle funzioni cerebrali ci consentirà, sperabilmente, di studiarne i meccanismi interni e di fare ulteriori progressi sulla strada della comprensione del mondo e di noi stessi.