Una macchina, o meglio un computer, seppur con capacità di calcolo ad oggi probabilmente ancora inimmaginabili, riuscirà a prendere coscienza di sé stessa?
Su questo quesito si è sviluppato, negli anni, un dibattito che vede coinvolte parti contrapposte su diverse sfumature, in base allo specifico argomento di discussione.
Sono numerosi i contributi elaborati da ingegneri, filosofi e innovatori sull’argomento, ma nelle prossime righe ci si concentrerà brevemente sulle teorie proposte da due filosofi Usa impegnati da anni in ricerche legate al funzionamento della mente umana, che hanno proposto posizioni e considerazioni assai divergenti e rispettivamente riconducibili a due fazioni opposte, quella dei funzionalisti e dei naturalisti biologici: Daniel Dennett e John Rogers Searle.
Le posizioni
Prima di tutto è necessario offrire una definizione di coscienza: essa è la “consapevolezza che il soggetto ha di sé stesso e del mondo esterno con cui è in rapporto, della propria identità e del complesso delle proprie attività interiori”.
Quindi, tornando alla domanda iniziale, è possibile che una macchina prenda coscienza di sé stessa? Prendendo in esame le posizioni, contrapposte, sull’argomento, è possibile, innanzitutto, distinguere tra:
- tecnoscettici, che sostengono che il digitale stia modificando in peggio i nostri cervelli, e i cosiddetti tecnottimisti, ossia coloro che sono convinti “che la tecnologia e i tecnologi stiano costruendo il mondo nuovo”[1], riconducibili al movimento filosofico-culturale del “transumanesimo”[2].
Tra questi, è possibile operare un’ulteriore distinzione riguardo gli sviluppi dell’intelligenza artificiale e, in particolare, in relazione al concetto di coscienza: da un lato, vi sono i funzionalisti, ossia coloro “secondo cui gli eventi o stati mentali (credenza, desiderio, volizione, ecc.) sarebbero qualificati da funzioni, ossia da ruoli operazionali, anziché da una specifica costituzione materiale”[3]; dall’altro, i naturalisti biologici, ossia coloro “secondo cui la coscienza, e i fenomeni ad essa legati (intenzionalità, soggettività, intelligenza, ecc.), è un fenomeno biologico”[4].
In pratica i primi affermano che le funzioni mentali possono essere scomposte in operazioni di calcolo, i secondi affermano che il nostro sistema nervoso e neurologico è molto più complesso. In questo dibattito tra posizioni, è possibile collocare le posizioni di Dennet e Searle.
Funzionalisti
Nonostante l’impegno della ricerca tecnologica nel tentativo di costruire modelli computazionali quanto più simili, e funzionanti, alla mente umana, sulle cui ricerche si sono dedicati in particolare coloro che appartengono al connessionismo – che si pone lo scopo di emulare la fisiologia del cervello degli esseri viventi (umani e animali) e delle sue cellule nel tentativo di riprodurne il funzionamento, l’intelligenza e le facoltà cognitive – nonostante la creazione di supercomputer come “Summit” la cui velocità è di 200 petaflop, ossia 200 milioni di miliardi di calcoli al secondo, la ricerca non ha ancora offerto la possibilità di riprodurre il funzionamento del cervello umano.
I tecnottimisti funzionalisti come Dennett, ispirandosi alle scienze cognitive, sostengono che il cervello sia un calcolatore che elabora delle informazioni attraverso le funzioni mentali, le quali possono essere ridotte a calcoli: questo approccio, detto anche computazionale, è utilizzato per spiegare le abilità percettive e cognitive come l’attenzione e la memoria.
Se si partisse da questo assunto, allora, considerando ogni attività cerebrale come il risultato di un calcolo, al pari andrebbe considerata anche la coscienza, che diventerebbe pertanto artificialmente replicabile. I tecnottimisti, seppur speranzosi, sanno che questo è ancora solo un obiettivo, ma loro convinzione li pone in una posizione di attesa di tempi migliori, in cui la scienza sarà in grado di elaborare un’IA altamente sofisticata e al contempo sarà possibile utilizzare dei materiali artificiali per riprodurre le funzioni neuronali, giungendo così prima o poi ad un’Intelligenza Artificiale cosciente.
Naturalisti biologici
Al contrario, i naturalisti come Searle si dimostrano fortemente critici nei confronti dell’IA forte e della possibilità che sistemi basati sulla stessa possano prendere coscienza di sé. Seppur non negando la possibilità di costruire una macchina “pesante” costituita di materiali diversi da quelli organici (e pertanto artificiali), la tesi naturalista si pone alcuni interrogativi critici: “una macchina può pensare semplicemente in virtù del fatto che esegue un programma per calcolatori?”[5]
È sufficiente progettare il giusto programma per dar vita ad una mente? Searle, nel provare a rispondere, si pone in una posizione di assoluta negazione di tale possibilità, in quanto un programma è un’elaborazione solamente sintattica di informazioni, mentre la mente svolge delle funzioni semantiche[6]. Inoltre, egli sostiene che non basta soffermarsi sulla componente software, ma bisogna concentrarsi anche sull’hardware, considerando che la struttura del cervello e i processi neurobiologici ad esso collegati sono i fattori che determinano la realizzazione delle funzioni mentali.
Pertanto, supponendo che tali funzioni non sia esclusive della mente umana, affinché una macchina possa essere considerata pensante e cosciente, sarebbe necessario che essa sia “in grado di causare ciò che causano i cervelli”[7]. Lo svolgimento di attività intelligenti, come i calcoli o la risoluzione di problemi, non determina automaticamente anche la capacità di un sistema di essere consapevole di ciò che sta svolgendo.
Emergentismo e coscienza
Alcune scuole di pensiero, delle scienze cognitive (neuroscienze e filosofia) ritengono che la coscienza sia una proprietà emergente del cervello (un po’ come in fisica il ghiaccio è proprietà emergente dell’acqua). Un fenomeno insomma che emerge in certe situazioni e risultante dalla comunicazione di informazioni attraverso tutte le sue regioni e non può essere ridotta a qualcosa che risiede in aree specifiche che controllano qualità come l’attenzione, l’udito o la memoria.
A questo riguardo, ci sono due principali scuole di pensiero opposte.
Una sostiene che le operazioni di emergenza standard e scientifiche possono spiegare completamente l’emergenza della coscienza. Questa è spesso descritta come la teoria dell‘”emergenza debole” (Bedau, 1997, 2008) o ciò che Searle chiamava emergenza1 (Searle, 1992; Feinberg, 2001, 2012; Feinberg e Mallatt, 2016a). In questa visione, la coscienza è o sarà in futuro pienamente comprensibile come una proprietà emergente dei processi cerebrali e delle relazioni causali tra loro.
L’altra posizione è chiamata emergenza forte (Bedau, 1997, 2008; Chalmers, 2006; Clayton, 2006; Revonsuo, 2010), emergenza 2 (Searle, 1992) o emergenza radicale (Feinberg, 2001; Van Gulick, 2001). Sostiene che nessuna proprietà conosciuta dei neuroni potrebbe mai conciliare scientificamente le differenze tra l’esperienza soggettiva (qualia) e il cervello; vale a dire che il divario esplicativo non potrà mai essere chiuso.
Antti Revonsuo riassume bene questa posizione:
“I sostenitori del materialismo emergente forte sottolineano le differenze fondamentali tra la realtà psicologica soggettiva e la realtà fisica (o neurale) oggettiva. La prima include esperienze qualitative che si sentono come qualcosa ed esistono solo dal punto di vista della prima persona; la seconda consiste in entità fisiche e meccanismi causali che non hanno nulla di soggettivo o qualitativo ed esistono dal punto di vista della terza persona o oggettivamente. Niente di ciò che possiamo pensare o immaginare potrebbe far sì che un processo fisico oggettivo si trasformi o “secerna” “sensazioni” soggettive e qualitative. È come cercare di spremere il vino dall’acqua pura: semplicemente non c’è, e non ci può essere nessun meccanismo naturale (a parte la magia) che potrebbe mai trasformare il primo in un secondo (Revonsuo, 2010, p. 30)”.
Il filosofo David Chalmers notoriamente chiama quello della coscienza l’hard problem. Ma ipotizza che sia una proprietà emergente in base a leggi fisiche ancora non scoperte, che appunto emerge quando ci sono condizioni di sufficiente complessità di organizzazione delle informazioni in una materia.
Una posizione che alcuni hanno chiamano neo-pampsichismo e apre le porte a ipotizzare AI (Chalmers, 2011) con coscienza perché dotate di organizzazione delle informazione con complessità sufficiente (oltre un certo livello, ancora non individuato).
Alessandro Longo
Il rischio della “singolarità”
Osservando questo confronto dal punto di vista più neutrale di Susan Schneider, professoressa di Filosofia della mente e Filosofia delle scienze cognitive presso l’Università del Connecticut, nonostante lei stessa si autodefinisca transumanista, si pone in una posizione di equidistanza dagli approcci poc’anzi riportati. Non basta riflettere sulla possibilità che un’intelligenza artificiale possa disporre di una coscienza o meno, ma è necessario interrogarsi anche sulla desiderabilità di questo eventuale risultato, ossia della convenienza per gli esseri umani, tenendo conto degli aspetti etici e del fatto che, ad oggi, è pressoché impossibile prevedere come una macchina utilizzerebbe una propria coscienza[8]: “le IA […] dovrebbero essere esaminate in ambienti limitati e controllati, alla ricerca di segni di coscienza”[9].
Il transumanesimo sostiene che ci stiamo rapidamente avvicinando a una “singolarità tecnologica”, ossia un punto in cui l’IA supererà di gran lunga l’intelligenza umana e sarà in grado di risolvere problemi che noi prima non eravamo in grado di risolvere, con conseguenze imprevedibili per la civiltà e la natura umane[10]: per quanto improbabile, questa considerazione appare possibile e non è detto che una tale situazione si presenti in modo repentino e palese, ma potrebbe costituire un processo, magari già in corso, per il quale il mondo non cambierà dalla sera alla mattina. Pertanto, bisogna aprirsi alla considerazione che potremo non essere più gli esseri più intelligenti del pianeta: le più grandi intelligenze sulla Terra potrebbero essere sintetiche.[11]
Come la macchina ci trasforma: l’approccio post-umanista per capire il presente
Intelligenza artificiale “forte” e “debole”
È innegabile come l’evoluzione tecnologica e digitale abbia pervaso ogni ambito della nostra società, andando a modificarne le dinamiche relazionali, da un punto di vista professionale, personale e istituzionale. Tra i cambiamenti apportati, grazie alla diffusione di strumenti e all’elaborazione di programmi sempre più sofisticati, emerge in particolare l’ampio utilizzo di sistemi basati sull’intelligenza artificiale. Con tale termine si individua un’area di ricerca tecnologica, frutto dell’incontro di diverse discipline (logica, psicologia, linguistica, informatica), volta alla “progettazione di sistemi artificiali capaci di prestazioni paragonabili a quelle umane nello svolgimento di attività ‘intelligenti’ (tipicamente, la risoluzione di problemi e la comprensione del linguaggio naturale)”[12].
Poiché, come detto, se si affronta il tema dell’IA non ci si può soffermare solo su aspetti tecnologici, tale area di ricerca ha visto nascere al proprio interno due correnti di pensiero relative alla “fattibilità” della creazione di un computer (o più) che possa riprodurre fedelmente la mente umana: coloro che ne escludono la riuscita appartengono all’area della cosiddetta “Intelligenza Artificiale Debole”, alla quale si contrappone l’“Intelligenza Artificiale Forte”, ossia coloro che sostengono che un computer potrà avere un’intelligenza pura, indistinguibile nelle funzioni da quella umana. Tale contrapposizione si sviluppa su diversi livelli di conoscenza: tecnologica, filosofica e biologica.
Alexa, Siri, Assistente Google (solo per citare i più comuni e conosciuti) e i molti altri software che realizzano l’interazione tra esseri umani e macchine sfruttano sistemi basati sull’intelligenza artificiale, ma non ne sono la massima espressione e sono ancora molto lontani dalla capacità di riprodurre il funzionamento del cervello umano (o meglio, della mente umana). Partendo da questa premessa, si cercherà di svolgere un’analisi delle correnti teoriche che arricchiscono il dibattito tra IA forte e debole, in particolare concentrandosi sulla possibilità che un sistema basato sull’Intelligenza Artificiale possa o meno sviluppare, una volta dotata di un “cervello”, una propria coscienza autonoma.
Considerazioni finali
Partendo dal presupposto che sia necessario considerare l’innegabilità degli aspetti positivi dell’evoluzione tecnologica e digitale, senza sottovalutarne però le conseguenze sociali, relazionali e le implicazioni etiche, è auspicabile augurarsi che riusciremo a elaborare dei sistemi di intelligenza artificiale sempre più sofisticati, che permettano di avvicinarsi maggiormente alla riproduzione della mente umana.[13]
Per raggiungere tale risultato però, è necessario prima compiere maggiori passi avanti nella conoscenza del funzionamento del nostro cervello.
Ma studi più approfonditi in questo senso, è probabile che non individueranno tutte le informazioni necessarie per costruire una coscienza artificiale: bisogna, infatti, anche considerare la soggettività della percezione di sé e del contesto (mondo) in cui viviamo, tenendo conto delle differenti associazioni che ogni individuo compie nel collegare espressioni linguistiche a determinate sensazioni emozionali.
Non è detto che la creazione di un sistema che ricalchi in modo assolutamente fedele la mente, con comportamenti indistinguibili da quelli di un essere umano, assicuri la riproduzione delle sensazioni, le quali sarebbero decontestualizzate dal complesso sistema di stimoli biorganici che appartengono alla stretta (inter)relazione tra il corpo e le attività cerebrali, la mente[14].
Bibliografia e note
- Mancini M., Silicon Valley: la religione del tecno-ottimismo, Medium, https://marioxmancini.medium.com/silicon-valley-la-religione-del-tecno-ottimismo-e9c8e3e43592 ↑
- “Julian Huxley ha coniato il termine «transumanesimo» nel 1957, scrivendo che nel prossimo futuro «la specie umana sarà sulla soglia di un nuovo tipo di esistenza, diversa dalla nostra esistenza attuale quanto quest’ultima è differente dall’uomo di Pechino». Il transumanesimo sostiene che la specie umana è ora in una fase relativamente acerba e che la sua evoluzione verrà alterata dallo sviluppo delle tecnologie.”, Schneider S., Artificial You, Il Saggiatore, 2020. ↑
- Fini M., Milani P., INTELLIGENZA E COSCIENZA, L’IA tra Searle e Dennett. Sviluppi dell’Intelligenza Artificiale, cit. ↑
- Ibidem. ↑
- Searle J. R., La mente è un programma?, in www.neuroingegneria.com ↑
- Searle J. R., Il mistero della coscienza, Raffaello Corina Editore, Milano 2004. ↑
- Ibidem. ↑
- Mazzocco D., I cervelli artificiali hanno iniziato a pensarsi?, Singola.net, https://singola.net/pensiero/quando-i-cervelli-artificiali-iniziano-a-pensarsi-intelligenza-artificiale-e-coscienza ↑
- Schneider S., Artificial You, Il Saggiatore, 2020. ↑
- Ibidem. ↑
- Ibidem. ↑
- Fini M., Milani P., intelligenza e coscienza, L’IA tra Searle e Dennett. Sviluppi dell’Intelligenza Artificiale, s.d., https://core.ac.uk/download/pdf/187783656.pdf ↑
- Cfr. Marino D., L’intelligenza artificiale. Saga fantascientifica o realtà scientifica?, Rubbettino, 2020. ↑
- Cfr. Fini M., Milani P., Intelligenza e coscienza, L’IA tra Searle e Dennett. Sviluppi dell’Intelligenza Artificiale, cit. ↑