la posizione

Intelligenza Artificiale: un’altra euforia di breve durata? Cosa insegna la Storia

L’intelligenza artificiale è stata sempre circondata da sentimenti contrastanti di entusiasmo e timore. Oggi iniziano a sentirsi voci secondo cui entrambi sono fuori luogo, poiché l’annunciata rivoluzione non sta avvenendo. Ciò non toglie che, tra errori, contrasti ed equivoci, l’euforia non sembra destinata a esaurirsi

Pubblicato il 31 Mag 2018

Alessio Plebe

Università degli Studi di Messina

intelligenza artificiale

Sono passati pochi anni da quando l’intelligenza artificiale è tornata prepotentemente alla ribalta, conquistando le copertine di riviste come Science (2015), Nature (2016), The Economist (2015). Anni in cui è diventata particolare oggetto di attenzione in ambiti che spaziano dalla sociologia all’economia e alla filosofia, nel formulare scenari futuri di come le società e la cultura umana sarebbero mutate all’inesorabile e pervasivo incedere dell’artificiale.

L’intelligenza artificiale tra entusiasmo e allarme

Come sempre accaduto nei momenti di gloria dell’intelligenza artificiale, i sentimenti che suscita sono contrastanti, agli entusiasmi per un mondo da sogno che si affaccia, per esempio da parte di Ray Kurzweil, si contrappongono accorati allarmi per un mondo svuotato di umanità, su cui incombe il mai sopito timore di venir sopraffatti da intelligentissimi robot, angoscia non unica di nostalgici umanisti, espressa persino da tecnocrati come Elon Musk e scienziati come il compianto Stephen Hawking. La sensazione comune era che, nel bene o nel male, la rivoluzione dell’artificiale fosse in atto. Pochi anni son passati, si diceva, eppure già iniziano a sentirsi voci di segno opposto, a suggerire che entusiasmi o timori sono fuori luogo, l’annunciata rivoluzione non sta avvenendo.

Intelligenza artificiale e produttività, risultati deludenti

Alcuni segnali arrivano dagli analisti economici, un report pubblicato a fine 2017 dal National Bureau of Economic Research parla del paradosso tra intelligenza artificiale e produttività, e del clash of expectations. Il paradosso sarebbe che le prestazioni “intelligenti” dei nuovi algoritmi ci sono e sono davanti agli occhi di tutti, ma non si stanno traducendo in aumenti della produttività delle imprese ad elevata tecnologia, che al contrario continua a calare.

Questa constatazione va di pari passo con il mercato del lavoro che si era aperto con l’esplosione di interesse verso l’intelligenza artificiale. Secondo Anthony Goldbloom, fondatore di Kaggle, la più grande rete mondiale di nuovi esperti di intelligenza artificiale, oggi posseduta da Google, racconta come vi siano stati anni in cui le richieste aziendali di esperti (in particolare di deep learning di cui si parlerà più avanti) superava di gran lunga l’offerta, e molti giovani cercavano di acquisire questo genere di competenze in tempi rapidi possibili per entrare in questo ambito di lavoro in crescita vertiginosa. Ora la situazione sta cambiando, si moltiplicano i numeri di progetti di intelligenza artificiali senza risultati, e gli specialisti di deep learning sono la categoria di programmatori che più di ogni altra è in cerca di una diversa occupazione (oltre il 14% secondo un sondaggio di Stackoverflow).

Il clamore dei “fallimenti” dell’algoritmo

Il vento pare cambiare anche nell’immagine dell’intelligenza artificiale che la cronaca fornisce all’opinione pubblica. Mentre qualche anno fa facevano notizia successi clamorosi dell’intelligenza, come la vittoria di DeepMind sui campioni cinesi di Go, il più difficile gioco da scacchiera esistente, ultimamente trovano maggior risalto casi in cui l’intelligenza artificiale fallisce. Ha fatto clamore, per esempio, l’immagine della preziosa statuetta preistorica nota come Venere di Willendorf, postata dall’artista Laura Ghianda su Facebook, ma censurata dal suo algoritmo come pornografia e quindi cancellata. Spazio ancor maggiore sui media giornalistici ha trovato la notizia, lo scorso marzo, di una vettura di Uber a guida automatica che ha investito una donna mentre attraversava portando a mano la sua bicicletta, causandone purtroppo la morte.

Di fronte a questi segnali viene da chiedersi se si sia trattato di euforia di breve durata, una delle tante che hanno caratterizzato la storia dell’intelligenza artificiale dalla metà del secolo scorso in poi, in una continua alternanza tra momenti di grandi entusiasmi e successive disillusioni. Una valutazione che sembrerebbe rafforzata dalla presenza di autorevoli espressioni di scetticismo che iniziano a levarsi proprio dall’interno dell’intelligenza artificiale stessa.

Le due anime dell’intelligenza artificiale

La loro interpretazione richiede una breve premessa. Con una semplificazione grossolana ma utile, si possono rintracciare all’interno dell’intelligenza artificiale due anime diverse, ben riconducibili ad una delle classiche contrapposizioni filosofiche: la visione empirista e quella razionalista. Per quest’ultima le nostre capacità cognitive derivano da una dotazione innata di strumenti di ragionamento, perfezionata in qualche modo dall’evoluzione naturale. Secondo l’empirismo è una sola la dotazione naturale che sottende la nostra intelligenza: la generale capacità di apprendere dall’esperienza.

La tendenza razionalista nell’intelligenza artificiale predilige lo sviluppo di software basati su sistemi logici in grado di operare inferenze tra strutture concettuali, in gran parte predeterminate. Viceversa la componente empirista mira a sviluppare sistemi in grado di imparare, e di farlo nel modo più efficiente, qualunque sia il dominio da apprendere.

Visione empirista dell’AI e deep learning

Il merito della recente ondata di successi, e del conseguente ottimismo sull’intelligenza artificiale, va interamente alla compagine empirista, che dopo decenni piuttosto avari di risultati, ha compiuto un salto straordinario con un insieme di algoritmi raccolti sotto l’etichetta deep learning. Sono una diretta derivazione delle reti neurali artificiali degli anni ’80, vagamente ispirate al modo in cui i neuroni biologici catturano esperienze, e proprio uno dei sui primi artefici, Geoffrey Hinton, ha escogitato pochi anni fa alcuni procedimenti matematici particolarmente felici, aprendo la nuova stagione delle reti neurali deep.

La “rivincita” della visione razionalista

Questo successo ha colto molti di sorpresa, certamente i fautori della visione alternativa, quella razionalista, che rapidamente si è trovata spiazzata in quasi tutte le applicazioni pratiche dell’intelligenza artificiale. Non è quindi una meraviglia che ora, alle prime battute d’arresto del nuovo gioiello empirista, il deep learning, l’altro versante riprenda voce. Un esponente di spicco della compagine razionalista come Gary Marcus, della New York University, ha stilato un elenco di dieci motivi che impediscono al deep learning di raggiungere ulteriori traguardi. Sono per lo più incentrati sull’evidenziare quanto i principi di funzionamento del deep learning, in particolar modo la sua esigenza di disporre di un elevato numero di esempi per apprendere ogni compito, siano ben lontani da come funziona la cognizione umana. Capacità come comprendere una frase mai udita prima, effettuare inferenze in situazioni completamente nuove, collocare nuove conoscenze all’interno della propria architettura concettuale, sarebbero secondo Marcus precluse al deep learning, e più agevolmente realizzabili da metodi computazionali di ispirazione razionalista. In particolare Marcus ritiene che la via verso un’intelligenza artificiale autentica debba distogliere la propria attenzione sull’apprendimento, dirigendola invece verso i modi con cui l’evoluzione naturale riesce a fissare nel patrimonio genetico umano gli strumenti del ragionare. John Tsotsos, della York University, si affianca a Marcus suggerendo anche quali sarebbero le alternative razionaliste, sistemi da lui denominati Cognitive Programs che risolvono problemi di riconoscimento visivo impiegando procedure che simulano il ragionamento su rappresentazioni, senza necessità di apprendimento.

L’equivoco della similitudine tra deep learning e cervello

Si reputano senz’altro condivisibili le osservazioni di Marcus e altri razionalisti sulle differenze macroscopiche tra modelli incentrati sul deep learning e l’architettura cognitiva umana, per come è conosciuta oggi. Anzi, si ritiene che attribuire il successo del deep learning alla sua similitudine con qualcosa del cervello sia fondamentalmente sbagliato, e faccia parte di una abituale retorica, funzionale a dar lustro e fascino a queste tecnologia. Le notevoli prestazioni del deep learning derivano invece da una felice simbiosi tra astuti procedimenti matematici, e la loro agevole esecuzione su dispositivi di calcolo inventati per scopi molto meno seriosi. Si tratta dei processori grafici progrediti per divertire schiere di adolescenti, catturati dai videogiochi di ultima generazione, come Rocket League o GTA, il cui genere di parallelismo e le cui primitive di calcolo matriciale li rendono perfetti per il deep learning, e ora trovano impieghi meno ludici, come nei computer di bordo delle automobili Tesla o nei cluster di calcolo di Google e Amazon. È anche la netta discrasia tra le reti neurali artificiali e quelle che stanno nel cervello, che permette alle prime di coniugarsi così bene con i dispositivi al silicio, e alle seconde di avvalersi di altri meccanismi, offerti dalle cellule viventi.

Tornando al conflitto filosofico tra visione razionalista e innatista da un lato, e empirista dall’altro, anche se si volesse concedere qualche supremazia teorica alla prima, questo non si tradurrebbe in nessun vantaggio sul piano tecnologico. Gli algoritmi di ispirazione empirista, come i Cognitive Programs, sono sicuramente validi strumenti di indagine su come funziona la cognizione, ma nelle applicazioni pratiche hanno prestazioni oramai abissalmente lontane rispetto allo stato dell’arte del deep learning. Da decenni si è tentato di imitare artificialmente l’evoluzione naturale, come perorato da Marcus, con una tecnica nota come algoritmi genetici, che ha trovato certi ambiti di applicazione, come tante altre tecniche di intelligenza artificiale, ma senza nemmeno lontanamente avvicinare i successi del deep learning.

Deep learning e riconoscimento del linguaggio

Uno dei modi di impiegare il deep learning che più sconcerta i razionalisti è la strategia detta end-to-end, che consiste nel saltare a piè pari tutti i passaggi di processo tradizionalmente contemplati in ogni problema complesso. Per esempio il riconoscimento del linguaggio parlato viene tipicamente scomposto in una sequenza di processi, che partono dall’analisi uditiva degli spettri di frequenza dei suoni nel tempo, seguita dall’individuazione di componenti fonetiche, la segmentazione di parole, l’analisi sintattica della serie di parole riconosciute, l’ancoramento di elementi sintattici anaforici con parti precedenti di discorso, la risoluzione degli elementi contestuali. Ognuna di queste componenti ha un suo quadro di riferimento teorico corposo, e soluzioni che hanno costituito il lavoro quotidiano di schiere di linguisti computazionali per svariati decenni. È sempre Geoffrey Hinton a fare piazza pulita di queste articolate catene di modelli dando in ingresso ad una rete end–to-end suoni grezzi, e aspettando in uscita le frasi compiute, di cui i suoni ne sono la pronuncia. Quel che succede in mezzo avrà qualcosa a che fare con modelli fonetici, sintattici, semantici, oppure avrà qualche attinenza con i processi – in gran parte sconosciuti – con cui il cervello riconosce il linguaggio parlato? Probabilmente no, ma funziona, e molto meglio di quanto disponibile finora da articolati modelli aderenti a qualche quadro teorico in ambito linguistico.

Deep learning e macchine a guida autonoma

Altrettanto impressionante è la strategia end–to–end nelle macchine a guida automatica. I primi sistemi per queste applicazioni erano tipicamente ripartiti in processi separati, anzitutto quelli dedicati all’elaborazione dei sensori di bordo, soprattutto telecamere e radar, seguiti da una modellazione dell’ambiente stimato intorno alla macchina, e infine un sistema decisionale per pilotare la macchina. Nulla di questo nell’end-to-end, in cui una rete deep learning ha in input direttamente i dati dei sensori, e produce due semplici output: l’angolo di rotazione dello sterzo, e la pressione sul pedale dell’acceleratore (o del freno). Il tutto nell’ottica empirista, fornendo alla rete neurale ancora senza patente grandi quantitativi di filmati catturati da auto in movimento, e corrispettivi angoli di sterzata e accelerate effettuate da umani, possibilmente bravi guidatori. Anche in questo caso, il risultato è il migliore oggi ottenibile.

In conclusione, è senz’altro opportuno relegare alla letteratura e alla filmografia certi scenari futuri idilliaci o viceversa apocalittici che si è tornati a sentire negli ultimi anni, mentre si ritiene che con il deep learning si sia superato un punto di non ritorno sulla progressiva pervasività dell’intelligenza artificiale in molti aspetti della vita contemporanea. Con alcuni di questi aspetti ci si convive già, come gli algoritmi che plasmano la nostra interazione in Facebook, Google, Amazon, Netflix. Altri arriveranno inevitabilmente a seguito del progressivo prevalere della guida autonoma in ogni settore dei trasporti. È fisiologico che nel transitare dalle ricerche preliminari, dai primi prototipi, alle fasi di sperimentazione e attuazione su ampia scala, si verifichino errori e fallimenti, che risultano inaccettabili quando, come per la guida automatica, comportano addirittura perdita di vite umane. Ma per quanto concerne una valutazione sulla validità o meno della nuova intelligenza artificiale, occorre tener conto che quegli errori eclatanti raccontati sopra, rappresentano una frazione trascurabile rispetto alla percentuale di errori compiuti da umani in compiti analoghi. Quindi stavolta l’euforia, magari ricondotta nelle giuste proporzioni, non pare vicina ad esaurirsi, con buona pace dei razionalisti.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati