Circa tre anni or sono la Edge Foundation ha sottoposto a studiosi ed esperti di Intelligenza Artificiale (IA) e della dinamica tecnico-scientifica in generale quesiti molto interessanti sull’IA, sintetizzate nell’espressione inclusa nel titolo. Le risposte date da 192 eminenti personalità contengono spunti e riflessioni eterogenei e molto suggestivi, anche perché le persone coinvolte hanno posizioni di primo piano in molte discipline: fisica, matematica, scienze cognitive, filosofia, politologia. Un dato di grande rilievo è che solo un numero esiguo di studiosi sollevano dubbi e timori, in primis il filosofo Nick Bostrom, le cui posizioni sui pericoli dell’IA sono ben note e condivise da altri eminenti personalità, quali Stephen Hawking e Elon Musk. Per contro molti altri si mostrano meno preoccupati, ma illustrano pareri molto interessanti. Ad esempio Georger Church, direttore del Personal Genome Project (Harvard University) afferma: siamo macchine pensanti, composte di atomi e di un numero estremamente elevato di particelle che interagiscono (1029 many-body problem).
Il nostro cervello biologico è, dal punto di vista energetico, migliaia di volte più efficiente dei cervelli inorganici, da noi costruiti, nello svolgere compiti abituali come il riconoscimento facciale e la traduzione linguistica. Viviamo in contesti che si arricchiscono sempre più di strumenti eso-somatici con cui agiamo in simbiosi, trasferendo ad essi peta-byte di informazioni in pochi secondi, ma il trasferimento di conoscenze tra cervelli basati sul carbonio (carbon-based) richiede decenni. Il futuro più probabile sarà pertanto caratterizzato da una traiettoria evolutiva incentrata su “cervelli ibridi”, più che su cervelli basati unicamente sul silicio (sili-based).
Intelligenza artificiale, pensiero e coscienza
In una prospettiva di questo tipo ha senso porsi gli interrogativi dello studioso James O’Donnel: essendo il pensare, al di là della varietà di significati ad esso attribuiti, un’attività connessa ad una serie di componenti, possono le macchine confondersi, provare dissonanze cognitive, sognare, meravigliarsi? Ed infine la domanda più impegnativa di tutte: c’è qualcuno che chiederà alla macchina cosa pensa delle macchine che pensano? Sunti di grande interesse sono presenti nella posizione suggestiva e apparentemente minimizzatrice del fisico Carlo Rovelli. In un intervento arguto e denso di richiami Rovelli sostiene che macchine intelligenti esistono già e sono fatte di materiali molto particolari, ne occorre molto tempo per farne della altre, anche se la loro evoluzione, una volta create, richiede molto tempo. Siamo noi che, come tutto il resto dell’universo, siamo composti di particolari atomi di carbonio, organizzati secondo peculiari e complessi meccanismi combinatori.
Se in Natura si sono sviluppate macchine pensanti sulla base di una dinamica combinatoria molto complessa, niente in linea teorica impedisce che combinazioni di atomi sili-based o basati su altre tipologie di atomi possa dare origine a macchine che pensano. Prima o poi accadrà (o è già accaduto in qualche parte dell’Universo?) e non deve essere visto aprioristicamente come un dramma, anche se sono fonti di preoccupazioni per macchine pensanti carbon-based come noi, singoli individui oppure in varie forme organizzative. Bisogna infatti tenere presente che la nostra intelligenza non è fatta solo di comportamenti algoritmici e logici, ma è il risultato di complessi mix di intuizioni, ricordi, emozioni, il cui ruolo razionale è stato brillantemente argomentato da Damasio (L’errore di Cartesio). Siamo allora di fronte al dilemma: può una macchina fatta di 1029 particelle sia capace di creare una macchina intelligente superiore a sé stessa? Due strade, secondo Roger Schank, professore di Computer Science, sono state tentate per farlo: una consiste nel copiare i metodi impiegati dagli esseri umani per pensare. L’altra consiste nel costruire sistemi sempre più rapidi ed efficaci di competizione basati su metodi statistici, ma in entrambi i casi quei sistemi non sanno cosa stanno facendo, eseguono sequenze di regole prefissate, sulla base delle quali apprendono, individuano pattern e configurazioni emergenti da enormi volumi di dati. Per questo tipo di macchine valgono i quesiti di O’Donnell precedentemente indicati. Veniamo così al problema del nesso tra intelligenza e coscienza, ma la natura di quest’ultima è un problema aperto anche per le macchine pensanti umane. A riguardo il fisico Frank Wilczek è convinto che la coscienza sia la proprietà emergente della materia, dunque macchine intelligenti diverse da noi possono esistere e la diversità delle forme di intelligenza non può essere trascurata, perché in noi la ragione si esprime in comportamenti guidati da incentivi e passioni, non dalla logica.
Una tesi convergente con quella di Wiczek è quella sostenuta dalla psicologa Susan Blackmore: l’intelligenza che gli esseri umani creano è quella che essi definiscono così, sulla base della loro visione di cos’è l’intelligenza, trascurando però un aspetto molto importante: l’informazione digitale evolve e non possiamo escludere che nuove machine pensanti evolvano in forme e meccanismi differenti da quelli che ipotizziamo attualmente. La visione di Blackmore propone è la seguente: “Lungi dall’essere piccole e indipendenti macchine che pensano, stiamo diventando parte di una grande macchina pensante”. Se perderemo il controllo di esse, perderemo la nostra indipendenza. Il biologo Mark Pagel sarebbe d’accordo: non vede rischi di eventi epocali, che sconvolgeranno la storia dell’umanità. Esse svolgono compiti per noi faticose e non dovremmo ritenere che l’Intelligenza Artificiale sia di per sé dannosa, perché esse non saranno né contro di noi, né a nostro favore, e non hanno incorporate predilezioni particolari: “Pensare altrimenti significa confondere intelligenza con aspirazione e connesse emozioni”. Certo noi ci siamo evoluti come organismi impegnati in una feroce competizione per la sopravvivenza proprio sulla base di un mix dei tre ingredienti elencati. Non bisogna però confondere l’aspirazione con l’intelligenza, perché la prima non è componente necessaria della seconda, anche se fornisce un’utile piattaforma sulla quale l’intelligenza può evolvere. Bisogna d’altronde tenere presente quanto sostiene lo scienziato cognitivo Donald Hoffman, cioè che l’intelligenza è una proprietà funzionale di sistemi complessi e l’evoluzione è un algoritmo di ricerca (à la Dawkins del libro Alla conquista del monte improbabile) e trova tali funzioni.
Una delle caratteristiche dell’intelligenza naturale è la sua estrema eterogeneità, che è tale da rendere la visione sapiens-centrica dell’intelligenza per molti versi analoga alla concezione geocentrica del cosmo. L’intelligenza è quindi, per così dire, una macchina evolutiva con determinati limiti, pur nella elevata varietà con cui si manifesta nella competizione per la sopravvivenza. Quest’ultima in futuro ci riserverà sorprese, misteri, elementi di forza che si riveleranno punti deboli e viceversa. Allora il comportamento migliore è la prudenza: “non abbracciare il serpente a sonagli, non deridere il grizzly, evitare zanzare dannose”. Tutte le specie si estinguono e l’homo sapiens non farà eccezione, non possiamo sapere se per un conflitto nucleare, un’epidemia, un’invasione aliena, un supervulcano, un’inversione dell’asse terrestre. È però sicuro che nel prossimo futuro l’Intelligenza artificiale sarà fonte di paure, intuizioni, aspirazioni e al tempo stesso di profitti.
Intelligenza artificiale, alleato o minaccia dell’umano
Una visione abbastanza ottimistica è espressa da Andy Clark, professore di Logica e Metafisica all’Università di Edimburgo, il quale non nutre particolari preoccupazioni per strumenti che risolvono per noi problemi complessi del mondo reale, purché siano macchine che apprendono “macinando” grandi quantità di dati sulla base di appropriate metodologie statistiche. Attraverso i big data, infatti, esse possono liberamente “navigare nel mare di fatti” in cui noi viviamo e catturare al meglio informazioni ed elementi che ci sfuggono. Meno ottimista è Poundstone, giornalista e scrittore con più nominations al premio Pulitzer. Per Poundstone la fonte dei rischi è l’antropomorfismo, che spinge gli umani a creare prima o poi quella che chiama “Frankestein Aritificial Intelligence”, per indicare agenti artificiali di notevole intelligenza e passioni-emozioni umane, quindi macchine che possono essere in grado di compiere qualsiasi azione viene in mente di progettare ad agenti umani quali terroristi, “stati canaglia”, agenzie di “intelligence” e così via. Una prospettiva leggermente meno pessimistica, ma comunque non proprio serena, è proposta da Peter Norvig, direttore di ricerca a Google. Partendo dalla frase di un famoso esperto di IA, Edsge Dijstra, secondo cui chiedersi se le macchine possono pensare è una questione rilevante come quella “se i sottomarini possono nuotare”, Norvig ribatte alle critiche verso il possibile dominio dell’IA sostenendo che agenti artificiali potranno commettere errori come succede a tutti, pur nella loro crescente autonomia e adattabilità.
L’unico problema che egli vede è, invece, l’aumento della disoccupazione e della diseguaglianza, cognitiva e distributiva (aggiungiamo noi), più che un’“esplosione dell’intelligenza” tale da crearne una superiore a quella umana. Pertanto Norvig invita a non feticizzare l’IA come un potere monolitico, perché i processi reali sono molto meno netti di quanto noi immaginiamo, come si può dedurre da questo aforisma: “La persona più intelligente non sempre è quella di maggior successo; le politiche più sagge non sono sempre quelle adottate”. Questa tesi non del tutto negativa pare confermata da quanto afferma il professore di robotica al MIT, Rodney Brooks, che ricorda l’affermazione del grande esperto di IA Marvin Minsky, il quale definiva “Pensare” e “intelligenza” due “parole-valigia” per il numero elevato di significati ad esse attribuiti. Bisogna comunque tenere presente che i processi di pensiero umani sono molto differenti dai più potenti sistemi di algoritmi dell’IA, che non hanno né avranno proprietà fondamentali dei primi quali: capacità di generalizzare, effettuare inferenze attraverso domini cognitivi differenti, imparare autonomamente dalla propria esperienza personale. Bando quindi ai timori e vediamo cosa sapranno inventare gli umani.
È a questo riguardo ritenere degne di molte attenzione le riflessioni “provocatorie” di Haim Harari, ex direttore del Weizman Institute of Science. Ci sono prerogative umane ancora irraggiungibili dalle macchine pensanti odierne come lo sviluppare mix variabili di senso comune, emozioni, empatia, esperienza, background culturale per porsi domande cruciali e quindi cercare incessantemente di rispondere ad esse escogitando principi, combinati con i fatti. Suggestiva è poi la sua riflessione che il divario tra IA e Intelligenza umana può restringersi in seguito a due tipi di processi opposti: l’IA che accelera e supera l’altra, oppure la seconda che arretra lasciandosi superare, perché cede progressivamente funzioni e compiti alla prima. La traiettoria intrapresa di affidarsi agli algoritmi più che allo sviluppo di ragionamenti logici e articolati nell’affrontare i problemi del mondo reale sta lentamente portando gli umani verso il machine thinking. Si comprende allora come egli arrivi ad affermare che, a differenza dei grandi “guru della scienza” “sono preoccupato per un mondo guidato da persone che pensano come macchine, che costituisce un trend emergente nella società contemporanea”.
In un prossimo contributo cercheremo di riflettere, sempre sulla base dell’indagine di Edge.org, se sia possibile contrastare questa tendenza. Può darsi che sia un’impresa vana, ma già la diffusione di queste idee e della più estesa possibile riflessione su di esse può essere un passo importante.