La riflessione sulle macchine che pensano è sempre più viva dopo le recenti e molto pubblicizzate performance di agenti artificiali e le linee di ricerca molto suggestive, talvolta inquietanti, sviluppate da autorevoli Centri di Ricerca, in primis il Darpa (Usa) e il Cambricon Technologies (Cina) su temi come l’individuazione del nemico e il riconoscimento facciale nelle sue varie espressioni. Al tempo stesso l’Intelligenza Artificiale (IA) è entrata nella nostra vita (smartphone) e nel lavoro di tutti in forme più o meno esplicite e consapevoli (dal lato degli utilizzatori), per non parlare delle imprese, dove funzioni e attività di elaborazione delle informazioni di matrice esterna o interna sono affidati oramai a sistemi di software di crescente ampiezza e complessità.
Le implicazioni delle dinamiche di apprendimento collettivo
Eppure questo universo fisico-cibernetico in continua espansione non è iniziato da molto. Forse è opportuno ricordare con David Christian, storico e autore di Maps of Time: An Introduction to Big History, che l’universo ha 13.8 miliardi di anni e gli esseri umani sono apparsi 200.000 anni or sono. L’evoluzione umana ha portato, circa un secolo fa e quindi in un periodo complessivamente pari ad un 1/69000 della vita dell’Universo, alla creazione di macchine in grado di effettuare calcoli fantastici. Il pensiero umano non è apparso all’improvviso, ma è il risultato di un processo che ha visto organismi viventi adattarsi e sopravvivere in ambienti estremamente mutevoli, in perenne lotta con gradienti fisico-chimici di ogni tipo (temperatura, pressione, acidità, presenza di sostanze ostili, e così via). La trama di questa dinamica è stata la crescita selettiva di reti sempre più complesse di entità, fino a creare quelle che con un’espressione immaginifica Christian chiama “altissime strutture organiche” equivalenti biologiche dell’Empire State Building e della Bury Khalifa (il grattacielo di Dubai più alto del mondo). Il pensiero, quindi, e l’intelligenza umana basata sul linguaggio sono strumenti fondamentali per innescare dinamiche di apprendimento collettivo, con miliardi di persone che generano e si scambiano informazioni e conoscenze. Sempre Christian pone interrogativi stimolanti: cosa tiene insieme tutto questo? Chi ha la responsabilità? Se nessuno tiene le redini del tutto, ciò significa che la società moderna è senza alcuna guida?
La ricerca sul pensiero umano e automatico
Uno scenario inquietante, certo non rassicurato dall’odierna dinamica geo-politica globale, dove predominano incertezza, conflitti multipli, asimmetrie di potere e ricchezza. Ma cosa sono allora il pensiero e l’intelligenza? Tomaso Poggio, Professore di Scienze Cognitive al MIT, mette in luce che nessuno è in grado di avanzare una definizione “precisa e verificabile” di entrambi; ciononostante la ricerca sul pensiero umano e automatico è un fatto positivo per la società, perché permette di acquisire maggiori conoscenze sul funzionamento del cervello e della mente, grazie al fatto che essa richiede dinamiche interattive e l’integrazione di molte discipline: scienze cognitive, neuroscienze, informatica, IA. Le ricadute positive sono potenzialmente rilevanti per mutamenti dei processi di apprendimento e formazione, anche se l’intelligenza, afferma Poggio, “è una parola sola e un insieme di problemi”, quindi è probabile avesse ragione Marvin Minsky (La Società della Mente) nel sostenere che il pensiero è il risultato di “diverse abilità intelligenti”, da analizzare specificamente, riprodurre sul piano computazionale e infine integrare, perché forse l’intelligenza è “un insieme di problemi piuttosto indipendenti”.
Queste riflessioni convergono con quelle della scrittrice Maria Popova, secondo cui il pensare non può essere ridotto alla mera computazione, in quanto è anche l’esito di “processi cognitivi e contemplativi”. Riprendendo l’aforisma di Einstein (“l’immaginazione è più importante della conoscenza”), Popova sottolinea l’importanza di immaginare, perché in questo modo si supera la realtà nella ricerca di alternative, misurandosi con l’incertezza che ne consegue. E infatti, come sostengono Gruber e Saucedo (rispettivamente professori di Psicologia e Filosofia) la maggior parte del nostro pensiero si basa sulla capacità di integrare processi cognitivi e affettivi (holistic thinking). La linfa vitale di questa dinamica olistica è l’esistenza di una sorta di “materia oscura (dark matter) della mente”, come la definisce Everett (Professore di Linguistica alla Bentley University), riprendendo il concetto di Background proposto dal filosofo Searle, cioè stati mentali “non intenzionali”, da cui attingono le elaborazioni coscienti. Questi studiosi si riferiscono alla straordinaria capacità degli esseri umani di ragionare sempre in un contesto culturale, che consente loro di combinare mirabilmente processi inferenziali di tipo statistico, emozionale, sensoriale, propriocettivo.
Intelligenza artificiale e illusione ottimizzante
Possiamo infatti aggiungere con Stuart Russell, autore insieme a Norvig di uno dei fondamentali testi di IA, che uno degli scopi fondamentali dell’IA è stato quasi sempre quello di “costruire macchine che fossero più brave a prendere decisioni”, in ottemperanza a quella che preferiamo definire “illusione ottimizzante”. Quest’ultima consiste nell’idea, predominante da decenni anche nella teoria economica, che si debba seguire l’imperativo di massimizzare l’utilità attesa, in altri termini l’utilità media calcolata su set di alternative note, ponderate con la probabilità del loro verificarsi. Decenni di studi e ampi volumi hanno trascurato un fatto cruciale: “essere più bravi nel prendere decisioni non è lo stesso che prendere la migliore decisione”.
L’IA, la statistica, l’economia, la ricerca operativa hanno sempre trattato l’utilità come un dato esogeno, mentre un numero crescente di studi (a partire da Kahneman e Tversky) ha dimostrato come le funzioni di utilità degli umani non sono invariabili: le scelte dei soggetti cambiano, la coerenza nel consumo e nella produzione nel corso del tempo non è un dogma assoluto. Un algoritmo perfetto può apparire del tutto stupido di fronte ad un processo decisionale umano, ancorato a valori, idee, assunzioni, credenze che possono variare. Bisogna dunque auspicare una IA “allineata con i valori umani” e le loro peculiarità. Temi non dissimili sono sollevati da Smallberg (neurologo e drammaturgo), che sottolinea alcuni ingredienti essenziali che mancano alle macchine decisionali non umane, dotate ancora di intelligenza “primitiva”: emozioni, sensazioni soggettive, consapevolezza di essere consapevoli. Questi sono tutti elementi fondamentali per prendere decisioni basate sull’attività del “pensare”, senza prescindere dalla necessità di “un sistema di standard morale da osservare”.
Macchine, visione e immaginazione
Questi e altri fattori non sono riconducibili alla semplice potenza computazionale e alla capacità di combinare volumi crescenti di dati su basi algoritmiche. Infatti le macchine, sostiene Pepperberg (ricercatrice ad Harvard), non riescono ad avere una “visione”, non concepiscono autonomamente ad esempio una killer app, ma sono certamente più brave di un individuo medio nel risolvere problemi complessi di calcolo e di un campione mondiale in giochi tradizionalmente associati all’intelligenza (scacchi, Go). Non c’è quindi da preoccuparsi per questo tipo di macchine pensanti, bensì per una società compiaciuta, che rinuncia ai visionari, cioè alla capacità di immaginare oltre l’esistente, perché soddisfatta dell’essere liberata da lavori faticosi.
C’è poi un aspetto su cui mette l’accento Sean Carroll, fisico teorico al Caltech: gli esperti di IA si basano sulla separazione concettuale tra hardware e software, la Natura non fa invece questa distinzione. Di ciò sono consapevoli al Darpa, che ha finanziato linee di ricerca tra i cui risultati più interessanti è la scoperta che “il cervello umano è più bravo di qualsiasi computer odierno nell’analizzare velocemente certe tipologie di dati visuali, grazie a tecniche per estrarre segnali subconsci rilevanti senza la “seccante consapevolezza umana”. Immaginazione per trascendere l’esistente, capacità di captare e organizzare segnali susbconsci, l’essere senzienti (nel senso di reagire agli stimoli percepiti nella propria interiorità) sono meccanismi propulsori in grado di far pensare ponendo domande, sollevando questioni (Rafaeli, direttore del Centro di Ricerca su Internet, Università di Haifa).
L’intelligenza delle macchine
Al momento le macchine pensanti non possono fare tutto ciò, come afferma Slingerland (professore canadese di Scienze cognitive): esse sono tools e “non vogliono fare quello che fanno. Siamo noi a volere che lo facciano”. D’altronde l’intelligenza delle macchine può aumentare a dismisura, ma il pensiero creativo-intuitivo richiede macchine non-deterministiche (Dyson, progettista, autore di Turing’s Cathedral and Darwin Among the Machines). Forse qualcosa cambierà quando reti non-deterministiche di macchine deterministiche potranno produrre conoscenze e avere la consapevolezza del loro pensare, eventualmente arrivando perfino a “credere che le persone non possono pensare”. Possiamo stare tranquilli, secondo Dyson: nel breve-medio periodo questa possibilità è di là da venire. La mente umana, inoltre, possiede una caratteristica giustamente enfatizzata da Stuart A. Kauffman, famoso professore di Scienze Biologiche, Fisica, Astronomia: essa comprende metafore (lavora incessantemente mediante analogie, è opportuno aggiungere) e soprattutto è abduttiva, oltre che deduttiva e induttiva.
Abduzione, concetto elaborato da Peirce, significa avere capacità e propensione a formulare nuove ipotesi esplicative in merito a informazioni e dati disponibili. I processi abduttivi sono particolarmente fecondi di innovazioni concettuali ed operative, quindi nel fomentare la creatività in modi imprevedibili.
I 4 step per una reazione a catena dell’intelligenza
Le macchine, invece, forniscono risposte, non pongono domande e non formulano linee di ricerca e ipotesi interpretative. D’altronde perché vi sia una “reazione a catena dell’intelligenza”, come la chiama Dietterich (professore di Computer Science, Oregon State University) sono necessari 4 step fondamentali:
- un sistema deve essere in grado di espandere le conoscenze mediante la capacità di fare esperimenti.
- Gli esperimenti devono consentire di scoprire strutture concettuali semplificatrici, tali da superare i limiti di intrattabilità dei processi di ragionamento e riflessione in merito a problemi tecnico-scientifici.
- Il sistema deve essere capace di progettare e realizzare nuovi sistemi computazionali e appositi algoritmi.
- Il sistema deve sviluppare la capacità di garantire autonomia e risorse ai nuovi meccanismi computazionali.
I rischi dell’autonomia riproduttiva
I primi tre passaggi di per sé possono non innescare la reazione a catena, ma il quarto – autonomia riproduttiva- è fonte di rischi: niente impedisce di ipotizzare che l’iterazione indefinita del processo inneschi l’”esplosione dell’intelligenza”.
A meno che, nel frattempo, gli umani rinuncino troppo presto al controllo di agenti artificiali, che (ora) non possono pensare, affidando “prematuramente la civilizzazione al pilota automatico” (Daniel Dennett). In questo caso, il problema non sono le macchine che pensano, ma quelle viventi che abdicano al pensiero. Un tema da riprendere e sviluppare.