Coloro senza conoscenze pregresse di Intelligenza Artificiale (IA) riterranno – probabilmente – il suo attuale successo come punto intermedio di un continuo progresso. La storia dell’IA è ben diversa, a momenti positivi e di entusiasmo – mai paragonabili a quello attuale – si sono alternati periodi di stagnazione e disillusione, noti come “inverni dell’IA”.
Il nuovo millennio dell’IA: dal discredito al successo
Era di questo segno l’inizio del millennio: il discredito di cui godeva l’IA era tale che diversi ricercatori in discipline spesso considerate sotto il suo ombrello, come l’elaborazione del linguaggio naturale o l’esplorazione di “big data”, evitavano di essere etichettati come artificialisti. In uno dei testi informatici ancor oggi più diffusi sui metodi di raccomandazione automatica, il Mining of Massive Datasets di Leskovec, Rajaraman e Ullman, in oltre 500 pagine non si trova nemmeno una volta la locuzione “artificial intelligence”.
Dal 2010 la situazione si è rapidamente ribaltata, oggi far parte della comunità IA è titolo di vanto, e ogni azienda tecnologica ambisce a poter declamare di farne uso. Merito ne è pressoché interamente una famiglia di algoritmi nota come deep learning, si dirà a seguito di cosa si tratta. Il rinnovato prestigio è pienamente meritato, l’IA ha collezionato in pochi anni un numero impressionante di risultati del tutto inattesi, da quelli di portata soprattutto simbolica, come la vittoria di DeepMind sui campioni cinesi di Go, il più difficile gioco da scacchiera esistente, a quelli con ricadute applicative formidabili, come i veicoli a guida autonoma o la diagnostica clinica. Soprattutto l’IA è diventata pervasiva, con suoi contributi marginali o importanti, più’ o meno evidenti, nei computer e negli smartphone delle persone comuni, nei motori di ricerca e nei social media.
Come sempre accaduto nei momenti di gloria dell’IA, i sentimenti che suscita sono contrastanti, e accanto ai favori emergono voci di preoccupazione, se non di vero e proprio allarme per la prospettiva di un mondo disumanizzato, in cui addirittura l’essere umano rischierebbe di perdere la propria supremazia, sopraffatto da intelligentissimi artefatti digitali. Pertanto, niente di sorprendente che circolino libri con titoli da fiero inno di battaglia neo–luddista, come il Fermate le macchine! Come ci stanno rubando il lavoro, la salute e perfino l’anima di Francesco Borgonovo, per citare un volume in lingua italiana.
Non di questo si intende parlare in questo articolo, ma di una critica meno attesa e indubbiamente più’ interessante, che muove dall’interno dell’IA stessa, nei confronti della sua forma attuale, il deep learning. L’anno appena concluso, il 2019, è stato per chi scrive sorprendente per l’uscita quasi in sincronia di scritti di eminenti rappresentanti dell’IA, particolarmente critici verso il deep learning. Se ne elencano qui giusto alcuni.
Marcus vs Bengio, il dibattito sul deep learning
Barry Smith è celebre per aver traghettato l’ontologia dal suo ambito naturale, la filosofia, all’informatica, aprendo la strada per dotare strutture digitali come il web di semantica, non troppo dissimile da quella umana. Il suo articolo del 2019 Making AI meaningful again è una critica serrata al deep learning, accusato come chiarisce il titolo di essere incapace di semantica, che urge essere ripristinata in IA. Ancor più’ radicale è la critica mossa da Gary Marcus nel suo libro del 2019 Rebooting AI: Building Artificial Intelligence We Can Trust, dove il “rebooting” non lascia dubbi: l’IA va ricostruita, su presupposti diversi dal deep learning. Questo acceso dibattito tutto interno all’IA ha avuto il suo momento culminante il 23 dicembre, con un dibattito aperto tra Gary Marcus e uno dei principali esponenti del deep learning, Yoshua Bengio, trasmesso in tutto il mondo.
Questo evento è stato davvero illuminante nel rivelare il lontano retaggio dell’attuale contrapposizione interna all’IA tra simpatizzanti e ostili al deep learning. Le sue radici sono nella disputa principale riguardo la natura dell’uomo, che ha attraversato l’intera storia della filosofia occidentale. Le prime avvisaglie risalgono alla contesa tra Platone, che riteneva l’uomo dotato di un certo bagaglio di idee innate tramite cui cercare di comprendere il mondo, e il suo allievo Aristotele che dissentiva, sostenendo che la conoscenza derivasse invece dall’esperienza. Di fatto buona parte delle teorie filosofiche successive potrebbero essere interpretate come adesione a uno o all’altro partito, ma è soprattutto col pensiero moderno che la divisione si polarizza nei termini di razionalismo ed empirismo. Campioni del primo sono filosofi come Cartesio, Leibniz, Spinoza e Kant, mentre paladini dell’empirismo sono Bacone, Hobbes, Locke e Hume.
Oggi uno dei filosofi più radicalmente razionalista ed innatista è Steven Pinker, di cui proprio Marcus è stato allievo, mentre tra chi continua oggi a seguire le orme di Hume menzioniamo invece Jesse Prinz.
Fin dalle sue origini nell’IA le due visioni razionalista ed empirista hanno sotteso due linee di ricerca distinte e spesso in competizione. La tendenza razionalista nell’intelligenza artificiale predilige lo sviluppo di software basati su sistemi logici in grado di operare inferenze tra strutture concettuali, in gran parte predeterminate. Viceversa la componente empirista mira a sviluppare sistemi in grado di imparare, e di farlo nel modo più efficiente, indipendentemente dalle specificità del dominio da apprendere. Il deep learning, come tradisce la sua denominazione, è spudoratamente empirista. La nuova IA è dominata dal deep learning, il suo attuale strapotere ha inevitabilmente marginalizzato le istanze razionaliste, ma sarebbe avventato considerala una contesa vinta definitivamente.
Non solo, come precisato all’inizio, l’IA ha una storia altalenante in termini di popolarità, ma anche rispetto a quale sia la filosofia prevalente. L’empirismo ha avuto una sua scintilla agli albori dell’IA, ne era stato illustre pioniere Alan Turing, vagheggiando nel 1948 un computer diverso da quello che lui stesso aveva inventato, in cui non si dovesse programmare nulla ma permettere che apprendesse tramite esempi. Altri come Marvin Minsky e Frank Rosenblatt negli anni ’50 abbozzavano dei primi semplici artefatti in grado di apprendere imitando i neuroni biologici.
Negli anni ’60 la situazione si ribaltò, grazie alla forte spinta verso il razionalismo delle scienze cognitive. Una delle sue figure carismatiche, il linguista Noam Chomsky, sosteneva che l’uomo possedesse la facoltà del linguaggio come dotazione innata di regole grammaticali universali, e pur non avendo un personale coinvolgimento nell’IA, ne fu indirettamente ispiratore. L’IA progredì notevolmente sulla strada della programmazione logica e dei sistemi di ragionamento nella soluzione di problemi generali, con il contributo fondamentale di Newell e Simon, gettando nell’ombra la linea di ricerca empirista.
Verso la fine degli anni ’80 l’altalena riprende ad oscillare, i programmi razionalisti sembravano aver esaurito le loro possibilità e irrompono sulla scena le reti neurali artificiali, rappresentanti a tutto tondo dell’empirismo, che trovano delle felici formulazioni matematiche su come apprendere automaticamente dall’esperienza, riscuotendo un notevole successo, pur se una pallida parvenza di quello attuale.
Il deep learning non è altro che un affinamento di quel tipo di algoritmi, l’attributo “deep” significa semplicemente che oggi si riescono a comporre reti di neuroni organizzate su molti strati, mentre negli anni ’80 non superavano mai i tre. Di fatto diversi degli artefici delle prime reti neurali artificiali sono oggi i protagonisti del deep learning, primo fra tutti Geoffrey Hinton, che ha escogitato certi accorgimenti matematici che hanno reso efficace l’addestramento di reti “profonde”, con molti strati di neuroni.
Il successo del deep learning
Il successo del deep learning è arrivato del tutto inaspettato e con rapidità impressionante, lasciando la compagine razionalista spiazzata in quasi tutte le applicazioni pratiche dell’intelligenza artificiale. Sono stati necessari alcuni anni di riflessione, ed ora è arrivato il momento per i razionalisti nell’IA di riprendere la parola, sollevando verso il deep learning delle meditate contestazioni. Primi segni di una riscossa razionalista in IA? No, per i motivi che ora si articoleranno non si ravvedono in queste critiche segnali nuovi, piuttosto una riedizione di argomenti di bandiera. Si vuol sottolineare che non per questo si ritiene che il deep learning sia destinato a dominare l’IA nel futuro, ma per motivi ben diversi: per la mancanza di una motivazione comprensibile del suo successo, e soprattutto alla luce della storia dell’IA e delle sue altalenanze tra paradigmi. Nulla di strano se nei prossimi anni scaturissero delle nuove idee matematiche, possibilmente più affini al razionalismo, o anche a visioni filosofiche diverse dalle due qui considerate, particolarmente felici nel realizzare software di sofisticata intelligenza.
Tornando all’ondata di critiche del 2019, sia dagli scritti di Smith e Marcus citati prima, che dal dibattito di quest’ultimo con Bengio, è ben identificabile il nucleo argomentativo centrale, che altro non è che la rivendicazione del razionalismo: l’intelligenza umana si fonda su una serie di nozioni concettuali generali e di regole innate, il deep learning non ha nulla di questo, pertanto è sbagliato. Non a caso entrambi portano a supporto delle loro istanze il linguaggio naturale, Smith ripescando direttamente Chomsky, e Marcus portando suoi personali studi sul linguaggio nei bambini. Come detto sopra, il linguaggio è stato il cavallo di battaglia del razionalismo interpretato da Chomsky, ed ha ancora oggi un’influenza importante, anche oggi sono decisamente meno quelli pronti a scommettere sulla reale esistenza di una facoltà innata del linguaggio.
Non ci si vuol certo impegnare qui nel dirimere una diatriba millenaria sulla natura dell’uomo, si vuol sottolineare invece una debolezza di fondo dell’argomento razionalista all’attacco della nuova IA: assumere che un algoritmo sia valido nella misura in cui rispetta i fondamentali della natura umana. In realtà non esistono basi oggettive per asserire che l’aderenza da parte di un software ad un certo principio generale ne determini l’efficienza, a seconda se quel principio generale aderisca o meno al funzionamento della mente umana. Non solo, la storia dell’IA è costellata di esempi di software efficaci nello svolgere compiti “intelligenti” grazie a ingegnose invenzioni matematiche che nulla hanno a che fare con meccanismi del cervello o della mente.
Sempre a fine 2019 è uscito sulla rivista Minds and Machines un articolo dello scrivente insieme a Giorgio Grasso dal titolo eloquente: The Unbearable Shallow Understanding of Deep Learning (“l’insostenibile leggerezza nel comprendere il deep learning”). Esiste il paradosso che il deep learning è una invenzione umana, eppure nessun umano ha finora offerto una spiegazione convincente su come mai funzioni, e funzioni così bene. La vulgata che la sua formidabile efficacia scaturisca dall’imitare il cervello è priva di fondamento. Esiste una consolidata tradizione di software che imita davvero il funzionamento del cervello, come i simulatori NEURON e GENESIS, ma se qualcuno mai pensasse di adattarli alla raccomandazione automatica di prodotti commerciali o al riconoscimento dei volti, sarebbe un fallimento madornale. Forse il deep learning trova parte della sua efficacia proprio nel non imitare il cervello: la netta discrasia tra le reti neurali neurali artificiali e quelle che stanno nel cervello permette alle prime di coniugarsi al meglio con i dispositivi al silicio, e alle seconde di avvalersi di altri meccanismi, offerti dalle cellule viventi.
La differenza tra reti neurali e IA
Nel dibattito del 23 dicembre Marcus ha pungolato con insistenza Bengio perché esprimesse la sua fede o meno sull’esistenza di concetti e regole innate nell’uomo, trovando però poco terreno, Bengio era sostanzialmente disinteressato alla questione. Questo è sintomatico di una fondamentale differenza tra le reti neurali artificiali degli anni ’80 e la nuova IA, che pare sia sfuggita ai contestatori del deep learning. La comunità che diede vita alle prime reti neurali vedeva l’IA anzitutto come un’impresa in grado di illuminare il funzionamento della mente umana, tramite la costruzione di algoritmi che la imitino, e infatti il libro-bibbia delle reti neurali artificiali ha come sottotitolo Explorations in the Microstructure of Cognition. Il capitolo più citato dell’intera opera non aveva nessuna ricaduta applicativa, riguardava invece un modello neurale di come i bambini inglesi imparano il passato dei verbi. Intendeva essere una sfida nientemeno che a Chomsky, dimostrando che le regole del linguaggio umano possono essere apprese dall’esperienza. Immediatamente a difesa di Chomsky scese in campo Pinker, argomentando che il modello non aveva dimostrato un bel niente, ne è nato un polverone che ancora oggi ha i suoi strascichi.
Al contrario il deep learning è nato e si è sviluppato nel più totale disinteresse verso i risvolti cognitivi, puntando esclusivamente a sfruttare ingegneristicamente le reti neurali artificiali. Obiettivo ben colto, con il deep learning centrale negli investimenti in ricerca di aziende private del calibro di Google, Facebook, Amazon, NVIDIA, e un valore di investimenti globali nel 2018 stimato da Pitchbook in 40 miliardi di dollari, dieci volte il valore del 2013 quando la nuova IA iniziava a mietere i primi successi.
Quanto il successo del deep learning viaggi su basi pragmatiche senza troppa attenzione ai fondamenti teorici è ben sintetizzato da una fase del dibattito che ha animato la comunità IA a Natale.
Marcus ha ribadito a più riprese che l’intelligenza umana è fondata sul ragionamento razionale, la capacità di comporre entità semantiche ed effettuare operazioni logiche come negazioni, quantificazioni, inferenze, totalmente assenti nel deep learning. Ha offerto come controesempio il sistema CYC, il più imponente progetto di IA razionalista, intrapreso da Douglas Lenat negli anni ’80, con l’obiettivo di codificare tutto il sapere comune umano in un formato computerizzato, su cui sia possibile effettuare inferenze logiche. Il progetto è tuttora attivo, e possiede circa 24 milioni di entità semantiche, costate più di mille anni–uomo di lavoro per il loro inserimento. Marcus si è soffermato in un dettagliato elenco di cosa è in grado di fare CYC ed è invece precluso al deep learning. Bengio ha replicato invece con poche laconiche parole: “si, ma CYC non funziona…”. Peccato che Cyc ha molte applicazioni, anche ben pagate, tra Sanità e antiterrorismo.