Dopo le dichiarazioni programmatiche di Obama nel 2014, di Putin nel 2017 e il piano annunciato dalla Cina di voler essere il primo Paese in ambito IA nel 2030, il 30 maggio 2018 anche il Presidente francese Macron ha dichiarato di voler investire 1,5 miliardi di euro nell’intelligenza artificiale. L’Unione europea ha nominato un High Level Group on Artificial Intelligence di 52 esperti che include anche rappresentanti di Google e IBM, cui far scrivere le linee guida etiche per l’uso dell’IA e indirizzare gli investimenti europei che ammonteranno a 1 miliardo di euro tra il 2021 e il 2027. In Italia, a marzo 2018, Agid ha pubblicato un Libro Bianco in cui si imposta il problema di come sviluppare e servirsi dell’IA nella pubblica amministrazione, il Consorzio Nazionale Interuniversitario per l’Informatica ha inaugurato il 4 luglio del 2018 il Laboratorio Nazionale di Intelligenza Artificiale e si moltiplicano le iniziative di aggregazione e disseminazione che coinvolgono attori pubblici e privati, come quella del 27 settembre 2018 a Milano AI+bots all’ex-area EXPO2015.
AI: il boom grazie a deep learning, software semplici e GPU
Vi sono due fattori che hanno contribuito a un tale scenario in così rapido sviluppo e travolgente impatto, uno di tipo software e uno di tipo hardware. Da un lato è avvenuta la scoperta di nuovi algoritmi deep learning che hanno surclassato i precedenti tentativi di implementazione delle reti neurali. In linea di principio gli ingredienti matematici che oggi sono impiegati nelle reti neurali profonde erano già stati delineati alla fine degli anni sessanta del secolo scorso. Tuttavia Papert e Minksy confutarono in un loro libro il potenziale sviluppo delle reti neurali. Questo fece accantonare la ricerca pubblica intorno alle reti neurali da parte degli scienziati, e i finanziamenti furono destinati ad altri scopi. Il Governo Usa in realtà non accantonò del tutto l’idea e nel 1989 fece realizzare da Carnagie Mellon University per DARPA il prototipo ALVINN di veicolo a guida autonoma basato su un sistema di visione artificiale che impiegava reti neurali. Tuttavia è stato intorno al 2012 che si sono diffusi gli algoritmi deep learning basati sulle reti neurali profonde, nonostante esse fossero state riprese ed elaborate già negli anni ottanta a novanta. Ad esempio Geoffrey Hinton era arrivato al suo algoritmo di deep learning già nel 2006, ma fu solo quando il suo team la utilizzò per vincere la competizione ImageNet Challenge del 2012 che si accesero i riflettori su questa famiglia di algoritmi. Questo progresso da solo però non sarebbe bastato alla diffusione degli algoritmi deep learning, se non fosse accaduto qualcosa nel frattempo, in un campo apparentemente molto distante: quello delle schede grafiche.
Infatti, dal lato hardware, stava progredendo lo sviluppo delle schede grafiche trainato dall’industria dei videogiochi, che sono in grado di processare molti dati in parallelo. Oggi queste schede dispongono di memorie di molti gigabyte – un tempo nemmeno disponibili sui grandi elaboratori, al costo di poche centinaia di euro. La miscela di questi due fattori apparentemente lontani, il deep learning e le GPU di recente generazione, è stata resa esplosiva dal fatto che le schede GPU si adattano, riprogrammandole in modo opportuno, a processare proprio il tipo di calcoli richiesti dal deep learning.
La combinazione di software open source semplici da programmare come TensorFlow di Google e TensorRT di NVIDIA con la disponibilità di schede GPU a basso costo ha creato la condizione per una diffusione capillare dell’intelligenza artificiale a tutti i livelli della società e del mondo produttivo. Questa riduzione dei costi ha reso anche possibile soddisfare le esigenze delle grandi aziende che possono così investire sui grandi data center dove concentrare quantità massive di GPU per uso industriale o perfino contare su hardware dedicato come i chip neuromorfici o le TPU sviluppate autonomanente da Google. I grandi datacenter per l’IA consentono di gestire i big data, per applicazioni che vanno dalla progettazione di nuove tecnologie alla profilazione dettagliata dei propri utenti.
I problemi che oggi l’intelligenza artificiale risolve
L’intelligenza artificiale oggi risolve tre classi di problemi:
- la prima consiste nel riconoscimento automatizzato di patterns (visivi, audio, di altri dati) in base a una classificazione dei dati fornita dal training di un istruttore. Questa classe è risolta dall’apprendimento supervisionato: l’istruttore mostra classi di dati (come le immagini di oggetti o animali) da associare a categorie date (il fatto che si tratti di gatti, cani, automobili), in modo che il riconoscimento da un certo punto in poi sia automatizzabile. Questa tecnica è utilizzata ad esempio per il riconoscimento dei volti, per identificare le parole in un file audio, o per catalogare le galassie.
- La seconda classe di problemi riguarda la scoperta di relazioni tra i dati per creare una classificazione che non era già nota. Questa è risolta dall’apprendimento non supervisionato. La rete utilizza autonomamente i dati per modificarsi fino a stabilire quali gruppi di dati sono affini tra di loro e distinti da altri. Questo consente ad esempio di stabilire come si manifesta il traffico su internet e se sta accadendo qualcosa di anomalo, o se chi compra un certo prodotto al supermercato ne compra anche un altro, pur senza che si spieghi per quale motivo questa correlazione esista. Sta all’interpretazione dell’esperto stabilire per quale motivo chi compra le fette biscottate acquisti anche la marmellata, oppure chi compra il pepe rosa acquisti, per ipotesi, anche il mango.
- La terza classe di problemi è la determinazione di una strategia quando ci sono vantaggi differenti a breve e a lungo termine. Questa è l’applicazione più potente delle reti neurali profonde e prende il nome di apprendimento per rinforzo. Questo algoritmo, se opportunamente adattato al problema di strategia da risolvere, può raggiungere prestazioni che superano le strategie umane, come si è dimostrato nel gioco del Go in cui AlphaGo ha battuto sia il più estroso dei grandi campioni del Go, Lee Sedol, nel 2016, che il campione del mondo in carica Ke Jie nel 2017.
Tutti e tre questi metodi matematici condividono l’imitazione dell’architettura di piccole regioni del cervello, in particolare imitano la struttura a strati di neuroni della corteccia visiva.
Quanto è autonoma l’intelligenza artificiale attuale
Questi tre tipi di intelligenza artificiale (supervisionata, non supervisionata e per rinforzo) dimostrano prestazioni sorprendenti che possono superare quelle umane. Sarebbe tuttavia fuorviante considerare autonoma l’intelligenza artificiale. È condivisa la consapevolezza tra gli addetti ai lavori che l’IA basata su reti neurali profonde non è universalmente applicabile in modo automatico a qualsiasi problema. Ogni problema richiede una grande esperienza di un team interdisciplinare centrato intorno all’ambito di specializzazione prescelto affinchè l’IA raggiunga e superi le prestazioni umane. Nonostante la disponibiltà di software gratuiti versatili per disegnare praticamente qualsiasi tipo di rete neurale si possa immaginare, è sempre l’uomo che deve configurare l’architettura della rete in modo che sia la più adatta a risolvere un determinato problema e a definire la funzione che equivale al premio da conseguire. In questo senso, un veicolo a guida autonoma non è affatto autonomo.
Esso prende decisioni entro parametri stabiliti dai programmatori, entro limiti stabiliti dai programmatori, con un grado di successo il cui metro è fissato dal benchmark stabilito dai programmatori. Naturalmente non è in grado di prevedere situazioni che i programmatori non hanno ipotizzato e qualora si trovi ad agire con dati non previsti agirà in modo casuale. L’incidente della Tesla che ha scambiato la fiancata del rimorchio di un autotreno bianco con il cielo sopra l’orizzonte è stato causato da una sfortunata combinazione tra una situazione non prevista dai programmatori, con l’inadeguatezza dei sensori che non hanno potuto valutare la profondità come invece avrebbe fatto una persona mediante la visione stereoscopica. Questi problemi si possono progressivamente risolvere incrementando il livello della tecnologia, ad esempio in questo caso mediante telecamere a singoli fotoni per una visione che includa la profondità, ma non esiste una ricetta universale per prevenire qualsiasi problema se non l’applicazione di un principio di prudenza.
L’IA può essere autonoma nel senso che può essere lasciata al comando di un sistema meccanico ed agire in autonomia, ma non significa che sia sempre in grado di risolvere con successo tutte le situazioni in modo autonomo. Per questo motivo l’apprendimento per rinforzo di robot o veicoli viene spesso affiancato a una procedura chiamata apprendimento per imitazione, che dovrebbe accelerare l’apprendimento grazie all’esempio di un addestratore che svolge correttamente il compito.
L’equivoco dell’autonomia dell’apprendimento dell’IA
Oltre al frequente equivoco relativo all’autonomia della capacità di azione dell’intelligenza artificiale, c’è un ulteriore equivoco che riguarda l’autonomia dell’apprendimento dell’IA. L’apprendimento per rinforzo è stato talvolta spiegato al pubblico come un tipo di apprendimento che non richiede dati in quanto l’IA apprende da sé. Il tipico caso citato come esempio è il fatto che AlphaGo abbia appreso giocando a Go contro sé stesso. In realtà anche in questo tipo di apprendimento vi è una quantità di dati cruciali forniti dall’esterno: quelli che derivano dalle condizioni dell’ambiente. Nel caso di AlphaGo sono la scelta dell’architettura precisa, dei parametri di apprendimento della rete, e le regole del gioco. Nel caso di un veicolo lasciato ad apprendere autonomamente come guidare,a le regole del gioco sono rappresentate dalla totalità degli eventi che possono capitare, incluso causare incidenti mortali per poi riprovare a fare meglio. È interessante che per quanto riguarda la scelta dell’architettura e dei parametri di apprendimento, è stato effettuato un’esperimento da Google di delegare questo compito a un’intelligenza artificiale, che quindi ne crea un’altra. Tuttavia questo non significa che l’IA generatrice sia autonoma, perché quest’ultima dovrà ancora anch’essa essere definita da programmatori umani.
Verso la realizzazione della meta-IA
Il nuovo salto di qualità nell’ambito dell’intelligenza artificiale tuttavia è suggerito nuovamente dallo studio del cervello umano. Fino ad oggi infatti tutti e tre i metodi di intelligenza artificiale si sono ispirati all’organizzazione di una piccola regione del cervello, cioè come già detto alla corteccia visiva. Tuttavia il cervello è molto più complesso e coinvolge circa 180 regioni distinguibili e specializzate, solo alcune delle quali sono le regioni della corteccia visiva. Vi sono regioni per il linguaggio, per l’udito, e così via per molte funzioni inerenti la memoria, il ragionamento astratto, etc. Le tecniche di imaging sviluppate negli ultimi anni hanno consentito di ricostruire l’architettura del connettoma di alto livello che collega queste 180 regioni, e poi la struttura interna delle regioni – ciascuna delle quali processa determinati stimoli in un modo proprio.
Nel 2012 la Waterloo University in Canada ha realizzato SPAUN, un semplice robot costituito da una telecamera e un braccio, il cui cervello però era dotato di 5 milioni di neuroni artificiali organizzati secondo un connettoma in miniatura che includeva il minimo indispensabile per emulare circa una decina di regioni del cervello. Questa rete di reti di neuroni artificiali consente di elaborare l’immagine e reagire con in modo appropriato, come copiare “a mano” con il braccio meccanico le lettere percepite mediante la telecamera, risolvere problemi matematici e di logica come le matrici logiche di Raven, dimostrando quindi intelligenza fluida. Il prototipo è stato ulteriormente sviluppato intorno al progetto Nengo nel 2018. Questo sistema si può definire una meta-IA, cioè un sistema basato, anzichè su una sola rete neurale che emula una regione del cervello, su una rete di reti di neuroni artificiali collegate tra di loro in cui il funzionamento complessivo risulta da come è organizzato il connettoma di alto livello. Un team di scienziati provenienti da diverse istituzioni basate a Londra ha stabilito nel 2018 che la corteccia prefrontale umana, quella cioè dove si trovano le funzioni esecutive, la presa delle decisioni e la gestione di comportamenti complessi, è modellizzabile come una rete di reti neurali del terzo tipo illustrato sopra, che apprendono cioè per rinforzo.
Oltre alla Waterloo University, ad esempio anche Cortical.ai sta lavorando alla realizzazione di una meta-AI. Questa meta-AI, grazie al fatto di disporre di un connettoma di alto livello che fa uso di un numero di neuroni molto elevato, sarà in grado di esibire comportamenti complessi anche senza che si arrivino a realizzare gli 80 miliardi di neuroni che invece si trovano nel cervello umano. Un errato design o un inadeguato addestramento di una meta-IA potrebbe determinare comportamenti impredicibili dell’algoritmo al mutare delle condizioni ambientali o al progredire della sua maturazione. Cortical sta impiegando l’IA per ottimizzare protesi collegate al sistema nervoso di persone che hanno subito amputazioni, capaci di dare sensazioni indistinguibili da quelle di un arto vero. Contemporaneamente, si propone anche di sviluppare quelle che definisce “personalità sintetiche”, “gemelli digitali” e “persone digitali”. Queste locuzioni fanno uso di termini che si usano generalmente per caratterizzare gli individui, allo scopo di denominare algoritmi molto complessi – talmente complessi da risultare nel lungo termine impredicibili. Il tentativo di ricondurre gli algoritmi che decidono in modo potenzialmente impredicibile alla natura delle persone ha a che fare in genere con motivazioni di tipo commerciale e culturale. Queste ricerche inerenti la costruzione di un algoritmo che arrivi a emulare un intero connettoma porterebbero a realizzare un processo che può essere chiamato mente artificiale, intendendosi con questa espressione che si sono emulati artificialmente processi neurali organizzati in modo analogo a quelli che si svolgono nel cervello umano.
Gestire i rischi derivanti dall’uso dell’intelligenza artificiale
È stato dibattuto, anche dal Parlamento Europeo, se questo progresso nell’ambito dell’intelligenza artificiale debba o meno portare a riconoscere l’autonomia delle macchine dotate di una intelligenza artificiale. Nel 2017 il Parlamento Europeo ha proposto una raccomandazione alla Commissione Europea su questo tema. Uno dei punti del testo è basato sul principio che l’impossibilità di predire il comportamento dell’IA nel lungo termine vada presa come un fatto tale da giustificare la rinuncia a stabilire di chi siano le responsabilità dei danni che essa può arrecare. Lo strumento legale ventilato consisterebbe nel riconoscimento di uno status legale autonomo delle macchine dotate di intelligenza artificiale, che includerebbe la capacità economica di risarcire i danni.
Successivamente alcune centinaia di scienziati che lavorano nel campo dell’IA hanno sottoscritto una lettera aperta alla Commissione Europea, ripresa anche della rivista Nature, chiedendo che questa proposta fosse abbandonata a causa della sua grave inadeguatezza in termini di comprensione dei reali aspetti di funzionamento dell’IA e anche per motivi etici. Immaginando che l’IA possa svolgere compiti come guidare un veicolo o contribuire a interpretare immagini diagnostiche di pazienti a supporto di un medico, la giurisprudenza esistente possiede già i principi e gli strumenti per individuare le responsabilità di persone e aziende. L’esistenza di certificazioni si potrà estendere all’ambito delle IA in modo da stabilire cosa questi algoritmi, applicati alle macchine, dovranno garantire in termini di qualità e prestazioni per poter essere messi in commercio.
L’impiego dell’IA e delle meta–IA, e forse in futuro di menti artificiali, consentirà di affrontare sfide come il miglioramenteo della qualità della vita dei cittadini, la cura di malattie genetiche, fino all’esplorazione di altri sistemi solari e alla decifrazione di lingue antiche. Allo stesso tempo, tuttavia, richiede ponderate valutazioni etiche, affinché il suo utilizzo indiscriminato non alteri l’equilibrio sociale, non violi le libertà degli individui e non danneggi le classi economicamente più deboli.
Per dirla con il fisico Freeman Dyson “La funzione della valutazione della tecnologia non è quella di misurarla ma quella di mettere in guardia. Noi non possiamo prevedere quantitativamente il valore o il costo della nuova tecnologia: ciò che possiamo fare è guardare avanti e prevedere insidie e trappole. Con un po’ di fortuna, possiamo vedere i tranelli molto tempo prima, così da poterli evitare mentre avanziamo.” (Infinito in tutte le direzioni, 1988)
__________________________________________