L’estate del 2023 sarà ricordata per le alte temperature e per i numerosi incendi in Italia e nel mondo. Tuttavia, per gli studiosi della coscienza artificiale sarà ricordata anche per altri motivi, ossia per un deciso punto di svolta negli studi in questo campo.
Come è noto, il campo di ricerca sulla coscienza artificiale mira a indagare il fenomeno della coscienza alla luce della robotica e dei sistemi artificiali, della psicologia, della filosofia della mente, dell’etica e delle neuroscienze (Chella 2023). Alla svolta in questo settore hanno contribuito due eventi, due “incendi” nel panorama scientifico della coscienza artificiale, per riprendere il titolo del famoso film tratto dai racconti di William Faulkner.
I due eventi che hanno incendiato il dibattito sulla coscienza artificiale
Il primo evento riguarda la pubblicazione di un contributo da parte di David Chalmers, un influente filosofo della mente e della coscienza. Il secondo evento è pubblicazione di un contributo da parte di un gruppo di famosi neuroscienziati e studiosi di AI, tra cui Yoshua Bengio, vincitore del prestigioso Turing Award. Entrambi i contributi si focalizzano sulla possibilità di costruire una IA cosciente, e, a differenza di altri contributi, non negano a priori questa possibilità ma la analizzano in maniera scientifica alla luce delle conoscenze attuali. Soprattutto, entrambi i contributi propongono costruttivamente una lista di proprietà strutturali che dovrebbe possedere una IA cosciente.
È necessario rimarcare che la possibilità di fruire liberamente di sistemi IA come ChatGPT abbia cambiato la percezione comune degli studi sulla coscienza artificiale. Prima di ChatGPT, il dibattito sulla coscienza di un sistema IA era relegato ai congressi e convegni specialistici, essenzialmente in ambito filosofico. Adesso, la possibilità di usare ChatGPT nelle applicazioni quotidiane ha posto con forza il problema se un sistema di questo tipo possa essere cosciente o possa diventare cosciente in un prossimo futuro.
A questo proposito si ricorda il caso Lemoine del giugno 2022. Blake Lemoine, un ingegnere del software di Google, è stato licenziato per aver asserito di riscontrare prove di coscienza nel sistema software LaMBDA 2, un sistema IA sviluppato da Google e simile a ChatGPT. Gli ingegneri di Google hanno provveduto a smentire categoricamente questa possibilità. Tuttavia, Lemoine aveva lungamente interagito con il sistema e un estratto, obiettivamente impressionante, delle sue interazioni con LaMBDA 2 è riportato sul sito Medium e tradotto in italiano dal Corriere della Sera (Lemoine 2022).
Un ulteriore elemento di discussione che si aggiunge al caso Lemoine riguarda un articolo a firma di alcuni ricercatori Microsoft (Bubeck et al. 2023) pubblicato nella primavera del 2023 che presenta e commenta alcuni esperimenti condotti su ChatGPT. I ricercatori ipotizzano che CHatGPT può essere considerato un primo esempio di intelligenza artificiale generale (AGI – Artificial General Intelligence), visto che può essere utilizzato per risolvere problemi in diversi ambiti quali la matematica, il coding, la medicina, la legge, la psicologia, e altri. In particolare, i ricercatori hanno provato GPT-4, il sistema IA sottostante ChatGPT, chiedendo al sistema di scrivere una prova del teorema sui numeri primi in forma di poema, di disegnare un unicorno senza averlo mai visto, di creare una animazione complessa nel linguaggio di programmazione Python e di risolvere un problema matematico da scuola superiore. GPT-4 ha risposto in maniera soddisfacente in tutti questi compiti. Da qui l’ipotesi dei ricercatori Microsoft di trovarsi davanti ad un primo esempio di intelligenza artificiale generale.
La “coscienza” di ChatGPT
David Chalmers, nel contributo pubblicato sul Boston Review il 9 agosto 2023 (Chalmers 2023) analizza ChatGPT alla luce delle conoscenze attuali sulla coscienza. In particolare, Chalmers analizza i possibili “indicatori di coscienza” per un sistema IA.
Inizialmente Chalmers analizza alcuni indicatori sufficienti per la coscienza del sistema IA. Se un sistema IA rispondesse positivamente a questi indicatori, potrebbe essere considerato cosciente.
Il primo indicatore analizzato da Chalmers è la capacità di auto-rappresentarsi, ossia di descrivere la propria vita interiore. Lemoine nella sua analisi aveva fatto riferimento proprio a questa capacità. Tuttavia, ChatGPT è stato addestrato su una enorme mole di dati, inclusi libri e romanzi, e pertanto è in grado di “simulare” una propria vita interiore sulla base delle conoscenze pregresse. Infatti, numerosi romanzi descrivono la vita interiore del protagonista, le proprie emozioni e pensieri, e quindi ChatGPT può facilmente simulare una propria vita interiore imitando la letteratura.
Gli altri indicatori individuati da Chalmers sono la capacità di sembrare cosciente, le capacità conversazionali, la capacità di avere una intelligenza artificiale generale. Queste capacità sono soltanto in parte e in maniera limitata presenti in ChatGPT, e possono essere facilmente spiegate in termini di imitazione, come nel caso della possibilità di auto-rappresentarsi. In merito alla capacità di possedere una intelligenza artificiale generale, sebbene i risultati preliminari siano incoraggianti, come detto sopra, ChatGPT è molto lontana dal livello dell’intelligenza umana.
Chalmers passa quindi ad analizzare alcuni indicatori strutturali necessari per un’entità cosciente, quali la necessità di un substrato biologico, la necessità di avere sensori ed un corpo, la capacità di costruire un modello del mondo e di sé stesso, la capacità di elaborazioni ricorsive, possedere una memoria di lavoro globale, ed avere una propria personalità.
Sebbene non tutte queste caratteristiche siano accettate nella comunità scientifica, come ad esempio la necessità di un substrato biologico o di avere un corpo, per essere coscienti, nessuna di queste caratteristiche è presente in ChatGPT, e quindi Chalmers conclude che allo stato attuale ChatGPT non possiede né le caratteristiche necessarie, né quelle sufficienti per essere considerato un sistema IA cosciente.
Il contributo di Chalmers ha un importante risvolto positivo che consiste nell’avere tracciato una strada proponendo un insieme di caratteristiche che devono essere analizzate perché un sistema IA possa essere considerato cosciente. In particolare, per Chalmers non basta che il sistema “sembri” cosciente, ma deve anche soddisfare delle caratteristiche strutturali. In particolare, la presenza di una propria personalità è una caratteristica particolarmente rilevante in ChatGPT, in quanto, essendo un sistema addestrato su una enorme quantità di dati, presenta una forte disomogeneità nelle risposte che dipende dal contesto e dal tipo di prompt.
Coscienza e IA
A pochi giorni di distanza del contributo di Chalmers, il 17 agosto 2023, un gruppo di ricercatori guidati da Patrick Butlin e Robert Long, tra cui possiamo annoverare tra gli altri il già citato Yoshua Bengio, i neuroscienziati Ryota Kanai e Liad Mudrik e il filosofo Eric Schwitzgebel, hanno pubblicato un importante contributo per gli studi sulla coscienza artificiale (Butlin et al. 2023). Su X/Twitter diversi commentatori, discutendo il contributo, sono stati concordi nel rimarcare che la coscienza artificiale si avvia ad essere un tema di ricerca “mainstream” dell’Intelligenza Artificiale.
La posizione del “funzionalismo computazionale”
Il contributo di Butlin et al., rimarca il fatto che lo studio della coscienza nei sistemi IA è un problema di ricerca scientificamente trattabile e che deve essere studiato utilizzando gli appropriati metodi scientifici. Dal punto di vista filosofico, gli autori assumono la posizione del “funzionalismo computazionale,” secondo cui la condizione necessaria e sufficiente perché un sistema sia cosciente è che il sistema stesso sia in grado di effettuare computazioni del giusto tipo. Semplificando, secondo questa posizione il cervello umano e il computer sono sistemi computazionali ma su un substrato diverso. Se il computer effettuasse il giusto tipo di computazioni, sarebbe cosciente quanto il cervello umano. Gli autori riconoscono che questa posizione è problematica ed infatti la presentano come una ipotesi di lavoro pragmatica.
In sintesi, lo studio di Butlin et al., amplia ed estende la strategia adottata da Chalmers nel contributo precedentemente descritto. Gli autori hanno analizzato le teorie neuroscientifiche più accreditate sulla coscienza ed hanno estratto un insieme di indicatori di proprietà che, se presenti in un sistema IA, indicherebbero la possibilità della coscienza nel sistema stesso.
Nel rivendicare l’approccio teorico strutturale, gli autori dello studio rimarcano il rischio dell’analisi basata sulle interazioni con il sistema IA, già messo in luce nel precedente studio di Chalmers: un sistema IA ben addestrato potrebbe facilmente imitare comportamenti coscienti.
Le teorie scientifiche sulla coscienza
Le teorie scientifiche sulla coscienza analizzate nello studio sono: la teoria dell’elaborazione ricorsiva, lo spazio di lavoro globale, le teorie di ordine superiore, gli schemi di attenzione, l’elaborazione predittiva e la teoria degli agenti corporei. Si noti che alcune di queste teorie erano state già prese in considerazione da Chalmers.
Alcuni indicatori di proprietà individuati riguardano la capacità del sistema di integrare informazioni provenienti dai sensori, la capacità di avere una memoria di lavoro globale in grado di diffondere informazioni a tutto il sistema, la capacità di avere un sistema di attenzione, la capacità di generare aspettative sul mondo esterno.
Gli autori hanno compiuto uno sforzo rilevante per definire una lista di indicatori di proprietà coerente e senza incongruenze e sovrapposizioni. La lista di indicatori di proprietà può ragionevolmente essere considerata una sorta di manifesto della coscienza artificiale.
Il contributo di Butlin et al., è molto importante nello studio della coscienza artificiale, in quanto propone un metodo, che consiste nel prendere ispirazione dalle teorie della coscienza delle neuroscienze ed estrarre da queste degli opportuni indicatori di proprietà. È utile rimarcare che la lista di indicatori di proprietà si riferisce alle proprietà strutturali di un sistema IA, e non al suo comportamento esterno, proprio per evitare l’effetto di imitazione tipico dei sistemi come ChatGPT.
Gli autori discutono quindi come alcuni di questi indicatori siano già presenti o possano essere implementati nei futuri sistemi IA. Tuttavia, a oggi, nessun sistema soddisfa tutti gli indicatori e quindi nessun sistema, incluso ChatGPT, è un buon candidato ad essere un sistema IA cosciente, in concordanza con quanto asserito da Chalmers.
Gli autori rimarcano che la lista di indicatori proposta è una lista aperta. Man mano che gli studi sulla coscienza avanzano, la lista potrà essere emendata e aggiornata.
Conclusioni
Entrambi gli “incendi” scoppiati nell’estate del 2023 nel campo della coscienza artificiale hanno contribuito ad assestare questa disciplina, ormai riconosciuta quale componente “mainstream” dell’Intelligenza Artificiale.
Il grande merito è di avere definito un metodo che prende spunto dalle teorie neuroscientifiche sulla coscienza artificiale e avere definito una lista di indicatori di proprietà, una sorta di manifesto della coscienza artificiale.
Infine, è da rimarcare il fatto che entrambi i contributi pongono l’accento sulle problematiche etiche della coscienza artificiale. Chalmers evidenzia chiaramente le sfide che si aprono relativamente ai sistemi IA coscienti, che devono essere prese in considerazione attentamente nella progettazione di un sistema IA cosciente. Anche Butlin et al., concludono che un sistema di IA cosciente può sicuramente apportare benefici ma è necessario considerare in maniera attenta i possibili rischi.
Bibliografia
Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., Lee, P., Lee, Y.T., Li, Y., Lundberg, S., Nori, H., Palangi, H., Ribeiro, M.T., Zhang , Y. (2023): Sparks of Artificial General Intelligence: Early experiments with GPT-4, https://doi.org/10.48550/arXiv.2303.12712
Butlin, P., Long, R., Elmoznino, E., Bengio, Y., Birch, J., Constant, A., Deane, G., Fleming, S.M., Frith, C., Ji, X., Kanai, R., Klein, C., Lindsay, G., Michel, M., Mudrik, L., Peters, M.A.K., Schwitzgebel, E., Simon, J., VanRullen, R. (2023): Consciousness in Artificial Intelligence: Insights from the Science of Consciousness, https://doi.org/10.48550/arXiv.2308.08708
Chalmers, D. (2023): Could a Large Language Model Be Conscious? Boston Review,
https://www.bostonreview.net/articles/could-a-large-language-model-be-conscious/; si veda anche https://doi.org/10.48550/arXiv.2303.07103
Chella, A. (2023): Robot coscienti, realtà possibile o utopia? Cosa dicono gli studi, Agenda Digitale EU, https://www.agendadigitale.eu/cultura-digitale/robot-coscienti-imitazione-emulazione/
Lemoine, B. (2022): Is LaMDA Sentient? – an Interview, Medium, Jun 11, 2022 https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917; si veda anche: L’intervista con l’intelligenza artificiale LaMDA di Google, in italiano: è senziente? https://www.corriere.it/tecnologia/22_giugno_14/lamda-google-italiano-medium-1baf7b5c-eb42-11ec-b89b-6b199698064a.shtml