Gli interrogativi sulle “macchine che pensano” evocano immediatamente paure e speranze ancestrali: si tratta di un’intelligenza aliena, da noi umani creata e sfuggita al controllo? Quale sarà il rapporta tra essa e l’umanità: avrà i nostri pregi e sfuggirà i difetti? Viene subito in mente il mito greco del vaso, che il poeta Esiodo immaginò donato da Zeus a Pandora e da questa aperto, facendo così uscire tutti i mali che affliggono l’umanità. Occorre tenere presente che quest’ultima è stata già protagonista sia di grandi imprese tecnico-scientifiche (dalla scoperta del fuoco a quella dei rimedi contro malattie ed epidemie), sia di terribili azioni: eccidi e guerre mondiali sempre più atroci, con strumenti bellici sempre più micidiali.
Rompere la barriera tra mente umana e macchina artificiale
In ogni caso, con le tecnologie dell’informazione e gli sviluppi dell’Intelligenza Artificiale (IA) si sta attualmente cercando di rompere un diaframma molto delicato, quello che separa intelligenza umana e artificiale. Dall’indagine svolta dall’Edge Foundation su “Cosa pensi delle macchine che pensano” emergono alcuni aspetti ambivalenti, sui quali sarebbe necessario che la società intera riflettesse con molta attenzione. Il fisico teorico Carroll, ad esempio, parte dalla constatazione che noi umani siamo “macchine che pensano”, risultato dell’evoluzione naturale, che non fa distinzione tra hardware e software: i neuroni del cervello, così come il corpo umano, possono pensare perché interagiscono con il mondo in cui operano. Ecco perché neuro-scienziati ed esperti di robotica stanno studiando il modo per ottenere migliori risultati “rompendo la barriera tra mente umana e macchina artificiale”. Carroll ci informa appunto sul fatto che ricercatori finanziati dal DARPA, dopo aver realizzato che gli umani sono superiori ai computer nell’analizzare velocemente i dati visuali, hanno sviluppato tecniche per estrarre direttamente dal cervello rilevanti segnali subconsci, senza l’intervento della consapevolezza, fonte di disturbi informativi. Dove andremo a finire? Dipende dalla nostra saggezza nell’impiego di capacità così aumentate.
Lo spazio per l’uomo in un mondo di macchine
In realtà lo scenario dell’intelligenza sta cambiando profondamente. Paul Saffo professore della Stanford University, sottolinea come, dopo decenni di innovazione tecnologica accelerata, viviamo in un mondo sempre più complesso e dinamico, che è tale da superare le capacità umane di comprensione e di governo. Si pone dunque in prospettiva, secondo Saffo, il problema dello spazio riservato agli umani “in un mondo occupato da una popolazione di macchine autonome, il cui numero aumenta esponenzialmente”.
Le funzioni cognitive che mancano alle “macchine pensanti”
A questo proposito vale la considerazione del neuro-scienziato del College de France, Stanislaw Dehaene, che indica funzioni cognitive del tutto assenti nelle macchine pensanti: 1) gli umani, dopo la lunga evoluzione dei mammiferi, sono contraddistinti dalla capacità di integrare molte tipologie di informazioni, raccolte ed elaborate mediante la consapevolezza, in una sorta di spazio interno di lavoro globale (global workspace), così da effettuare processi decisionali e quindi intraprendere azioni. Definiamo intelligenti le macchine quando non solo sono in grado di “conoscere come fare delle cose”, ma anche “sanno di conoscerle”. 2) Negli umani esistono circuiti cerebrali preposti alla rappresentazione delle altre menti, la cosiddetta “Theory of mind”, per cui anche un bambino di un anno riconosce immediatamente i suoi simili ed è capace di sviluppare un global workspace interno sempre più ampio. Un’argomentazione complementare a quelle precedenti è svolta da Gopnik, psicologo dell’Università di Berkeley, il quale mette in risalto come le odierne macchine computazionali siano molto efficienti nell’apprendimento su basi statistiche, nello scoprire regolarità in enormi set di dati, che sono però “predigeriti” da cervelli umani. È essenziale il sistematico lavoro preventivo di questi ultimi nel rappresentare i dati in forma trattabile dai computer, che successivamente estraggono pattern e configurazioni, ma mancano ancora di una delle peculiarità più importanti possedute dagli umani: la capacità di generalizzare, di costruire conoscenze e modelli generali da informazioni confuse o “sparse”.
A ciò noi aggiungiamo un altro aspetto: le attuali macchine che pensano sono ben lontane dallo sviluppare analogie e dal possedere l’attitudine a trasferire strutture rappresentative da un dominio di conoscenze ad un altro, sulla base di gradienti di similarità strutturale e non solo formale (analogical reasoning, structural knowledge mapping). La mancanza delle capacità appena indicate spinge Gopnik a proporre una suggestiva analogia: Tycho Brahe, con le sue puntuali osservazioni dei movimenti degli astri nel corso del ‘500 e la loro registrazione sistematica, senza però riuscire ad effettuare un salto di immaginazione verso una nuova teoria esplicativa della massa di dati accumulata, è un po’ il Google del suo tempo, dato l’enorme set di osservazioni da lui costruito. Studiando questo materiale il suo allievo Keplero è poi riuscito a formulare le ipotesi relative alle leggi circa le orbite ellittiche dei pianeti.
In altri termini, quindi, l’apprendimento probabilistico bayesiano, cioè il Machine Learning sulla base di differenti strumenti di aggiornamento delle probabilità in base alle sequenze di eventi oppure alle strutture relazionali tra dati, è molto utile per verificare ipotesi strutturate (regolarità e leggi), ma non è in grado di generare le stesse ipotesi, che spesso derivano dal “combinare in modo creativo razionalità e irrazionalità, sistematicità e casualità”.
Macchine capaci di auto-modellarsi, la vera sfida
In effetti, però, come sottolinea Luca De Biase, giornalista del Sole 24 Ore, l’IA coordina “gli sforzi di una specie di intelligenza collettiva, che opera a velocità migliaia di volte superiore a quella dei cervelli umani”. La sua forza e velocità rende molto arduo il controllo da parte degli umani, come dimostrano alcune delle crisi economico-finanziarie degli ultimi decenni, anche se le caratteristiche positive dell’IA si stanno rivelando fondamentali in molti campi: medicina, politica, pubblicità, sicurezza nazionale e internazionale, e così via.
In realtà le macchine che pensano sono create dagli umani, che le modellano e ne stabiliscono la “narrazione” pubblica, orientandone la funzionalità e i processi operativi. Esse infatti operano e cercano risposte nel quadro concettuale definito preventivamente dagli umani e rispondono alle domande che solo questi ultimi sono in grado di formulare. “Gli umani non cessano mai di porre le domande, anche quando non sono coerenti con la narrazione prevalente”. Pensare a macchine che pensano implica che esse siano capaci di auto-modellarsi e quindi di modificare il framework odierno della loro progettazione. Se così fosse l’IA costituirebbe “una sfida non tanto per la specie umana, quando per l’intera civilizzazione”.
Il neuro-scienziato computazionale Terrence Senjowski enfatizza a questo proposito alcuni punti fermi, che in un certo senso connotano gli umani, i quali non costituiscono la specie più forte e più veloce, ma è quella che apprende meglio di tutte le altre. L’apprendimento individuale è massimo quando un insegnante interagisce con un solo allievo. Sarà possibile creare un insegnante artificiale per ogni studente? Appare dubbio che sia possibile costruire artificialmente una relazione di lungo termine che si ottiene tra un insegnante e un allievo umani. Potrà però forse essere comunque utile la relazione “uno a uno” tra agente artificiale e allievo per far acquisire agli umani maggiori capacità.
L’irriproducibilità dell’intelligenza umana
È allora inevitabile porsi qualche interrogativo sull’irriproducibilità dell’intelligenza umana. Il filoso teoretico Thomas Metzinger pone al centro della sua riflessione proprio gli elementi differenziali dell’intelligenza umana chiedendosi: come si può realizzare quella che si può definire complementarità-empatia tra macchine e umani? Egli propone un punto di vista molto interessante, perché mette in luce un ingrediente fondamentale del pensiero umano: l’efficienza unita alla capacità di soffrire.
La fragilità del nostro corpo, che interagisce con un “ambiente sociale pericoloso e deve misurarsi con ardue sfide per la sopravvivenza”, è alla base della nostra intelligenza e dell’”intrinseca motivazione”, che ci spinge verso alte funzioni cognitive. Può allora l’IA sperimentare condizioni simili e svolgere funzioni cognitive di livello elevato in assenza di determinate condizioni: 1) provare la sofferenza, che richiede l’esperienza soggettiva conscia. 2) Un auto-modello del sé, ovvero auto-identificazione consapevole mentre si hanno esperienze e si svolgono funzioni cognitive?
Qualche spunto in tema, orientato ad un moderato ottimismo, è fornito da Wallach, artista di Spotify, il quale vede nelle macchine e negli algoritmi degli strumenti per potenziare i 37 trilioni di cellule di cui sono composti i nostri organismi. Questi però si trovano di fronte al divario tra le enormi quantità di dati, la crescita esponenziale, da un lato, e dall’altro le nostre distorsioni-limitazioni cognitive e comportamentali, che spesso sono all’origine di asimmetrie di potere, ingiustizie, opacità informativa.
Ancora una volta, dunque, molto dipende dalle scelte che noi umani faremo, non dalle macchine che abbiamo creato e stiamo potenziando sempre di più.
AI fuori controllo, basterà staccare la spina?
La tesi in questione esce rafforzata da quanto sostiene il neurobiologo Leo Chalupa (George Washington University), secondo il quale il termine thinking machines è inappropriato, nonostante le loro rilevanti prestazioni, perché nessuna macchina è stata finora in grado di porsi e riflettere su “eterne domande”: da dove veniamo? Perché sono qui? Dove stiamo andando? La riflessione su di esse richiede “consapevolezza e senso di sé”, che le macchine non posseggono e non è prevedibile la acquisiscano in un futuro prevedibile. Di conseguenza non dobbiamo, almeno nel breve termine, preoccuparci che alcunché sfugga di mano, né di assegnare diritti civili e di approfondire questioni etiche: non appena emergerà il rischio che qualcosa sia fuori controllo, potremo sempre “staccare la spina”!
Ulteriore e molto più promettenti speranze propone Kevin Kelly, della rivista Wired e autore del famoso What Technology Wants. “la nostra intelligenza è una società di intelligenze ed essa occupa solo un piccolo spazio dell’universo, dove sono possibili molte altre forme di intelligenza e consapevolezza”. L’IA, di cui si parla molto, non è simile a quella umana: non siamo bravi statistici e abbiamo costruito dispositivi che sono molto bravi proprio nei calcoli statistici. Così come accade per altri strumenti che pensiamo possano aiutarci e superare le nostre limitazioni, per esempio nel guidare l’auto oppure in compiti molto importanti, quali il disvelamento di misteri concernenti la gravità quantistica, l’energia e la materia oscura forse presenti in quantità enormi nell’universo.
Si tratta di misteri che superano le capacità umane attuali e l’IA può essere vista come la strumentazione che ci può consentire di ampliare lo spazio delle possibilità evolutive, che la biologia da sé non è in grado di sviluppare. Le riflessioni di Kelly suggeriscono al lettore un pensiero davvero ardito, che richiameremo tra poco: compito dell’intelligenza umana potrebbe essere quello di aprire nuove diramazioni dell’albero infinito dell’evoluzione nell’universo, grazie proprio a incredibili sviluppi in quello che i neurobiologi Matura e Varela hanno definito l’”albero della conoscenza” (The Tree of Knowledge, 1987). Kelly infatti conclude esponendo la sua convinzione che sia compito degli umani creare macchine che pensino in modo differente da noi: intelligenze aliene, alieni artificiali.
Due aspetti cruciali dei processi decisionali umani
Questa tesi è interessante e suggestiva, ma vale la pena ricordare, grazie a Martin Seligman, professore di psicologia all’University of Pennsylvania, due aspetti cruciali dei processi decisionali umani: 1) la costante proiezione verso il futuro, valutato attraverso una serie di alternative in qualche modo ponderate, perché le risorse sono sempre scarse. 2) Le decisioni sono prese in contesti sociali e coinvolgono altri esseri pensati come noi. La costruzione di macchine che pensano, se mai ci sarà, non può prescindere da tutto ciò.
Macchine che pensano, spunti di riflessione da Borges
Senza trarre conclusioni, né definitive né provvisorie, prima di aver paura o esaltare le macchine che pensano vale la pena riflettere su due estratti, molto pertinenti, da due brevi racconti improntati al “realismo magico” dello scrittore argentino Borges. Nel primo, tratto da “La Biblioteca di Babele”, Borges paragona l’Universo ad una Biblioteca caratterizzata da “due fatti noti. Primo: la Biblioteca è così enorme che ogni riduzione di origine umana risulta infinitesima. Secondo: ogni esemplare è unico e insostituibile, ma (siccome la Biblioteca è totale) ci sono sempre migliaia di facsimili imperfetti”. Nel secondo, tratto da “Il giardino dei sentieri che si biforcano”, Borges parla di un libro infinito dell’immaginario Ts’ui Pen, che “credeva in infinite serie di tempo in una rete crescente e vertiginosa di tempi divergenti, convergenti e paralleli. Questa trama di tempi che s’accostano, si biforcano, si tagliano o s’ignorano per secoli, comprende tutte le possibilità. Il tempo si biforca continuamente verso innumerevoli futuri”.
Ecco, gli sviluppi dell’IA e dell’Intelligenza Naturale sono una diramazione infinitesima dello spazio delle possibilità, degli innumerevoli futuri che si aprono continuamente di fronte a noi nel muoversi sull’albero della conoscenza.
Bisognerà allora tornare sugli strumenti da poter utilizzare per orientarsi verso un orizzonte che si amplia sempre di più ogni volta ci avviciniamo ad esso a velocità elevata.