Leggere il libro di Stefano Da Empoli – Intelligenza artificiale: ultima chiamata. Il sistema Italia alla prova del futuro – è stata un’esperienza utile e stimolante. Non concordo con alcune delle tesi del libro ma proprio per questo ritengo che si tratti di un testo “provocative”, che con le sue proposte e suggestioni ci spinge a riflettere su temi che saranno fondamentali per il nostro futuro.
Parto con un “disclaimer”. Ritengo, in modo abbastanza radicato (e dunque sarà inutile nasconderlo), che il dibattito sull’Intelligenza Artificiale debba essere lasciato agli esperti. Comprendo bene l’obiezione che dice: “si tratta di questioni che riguardano il futuro di tutti noi e, dunque, non possiamo lasciare ai pundit la discussione e le decisioni”. Capisco, condivido e appoggio la logica e gli obiettivi ultimi di questa posizione, sono convinto dell’esigenza e dell’importanza di un dibattito serrato su questo tema ma ritengo anche che il dibattito debba vertere su questioni enucleate, analizzate e volgarizzate da esperti. Si noti bene, non informatici ma anche economisti, giuristi o religiosi e studiosi di etica; ma esperti nella loro materia e che abbiano dedicato qualche anno della loro ricerca disciplinare a comprendere in profondità l’argomento del quale parlano.
Un approccio scientifico alle conseguenze dell’AI
Il libro di Stefano Da Empoli mi è piaciuto perché ha esattamente questo taglio: un economista che cerca di leggere le conseguenze dell’avvento dell’Intelligenza Artificiale sulle questioni che studia abitualmente: competitività (del Sistema Italia), formazione, politica industriale. Come detto non concordo su tutto, ma il disaccordo non è sull’impostazione generale del libro che invece ho apprezzato moltissimo e dalla quale ho imparato molte cose interessanti.
Un libro che, a mio parere, si distacca nettamente dalla maggior parte degli altri contributi su questo tema apparsi nel dibattito nazionale. L’unico altro esempio di approccio altrettanto scientifico è il libro di Marco Delmastro e Antonio Nicita – “Big Data. Come stanno cambiando il nostro mondo”. Anche li ho molte critiche da fare, ma sull’impostazione scientifica “nulla quaestio”: economisti che parlano del ruolo dei dati in economia.
Per il resto, un gran parlare di conseguenze etiche e giuridiche dell’Intelligenza Artificiale, facendo più riferimento ad Asimov che alla sostanza della ricerca e dei risultati in questo settore. Anche la lotta contro il cancro, la ricerca sulla genomica o la fisica quantistica sono temi che condizioneranno il nostro futuro, eppure nessuno si sogna di affidare il dibattito sulle conseguenze sociali e politiche di queste discipline a qualcuno che non conosca le nozioni base di fisica di biologia molecolare. E allora perché questo avviene per un argomento altrettanto tecnico e che richiede profondissime competenze specialistiche per essere compreso? Perché blogger e giornalisti senza alcuna preparazione specifica si sostituiscono agli esperti nel definire i termini e le questioni da dibattere?
L’intelligenza artificiale oltre le mode
La verità, a parte le mode, è che non possiamo non parlarne, il tema della nostra intelligenza sfidata da quella delle macchine ci interpella così nel profondo che non possiamo accettare di rimanere a bordo campo mentre si gioca la partita. E allora eccoci pronti a parlare di qualcosa che non conosciamo bene e che ci rappresentiamo spesso in modo semplificato. A partire dal nome. Se dicessimo Ottimizzazione, Programmazione Dinamica, Controlli Automatici, Complessità computazionale non ci sentiremmo chiamati in causa.
Eppure, l’Intelligenza Artificiale, quella che funziona oggi e da 50 anni, è basata su queste conoscenze. Invece le parole chiave (che contano moltissimo) sono machine learning (le macchine imparano), deep learning (le macchine imparano tutto), intelligenza artificiale (le macchine imparano tutto e diventano più intelligenti di noi). Ma allora ci sostituiranno? E il lavoro? L’etica? La protezione dalle macchine pensanti?
Punti di forza e punti deboli del libro di Stefano Empoli
Il libro di Stefano, come detto, non è motivato da questa necessità di essere nel “mainstream”. È invece il seguito di un percorso di studio e quantificazione dei fenomeni dell’innovazione sul tessuto industriale italiano che Stefano e i suoi collaboratori stanno conducendo brillantemente da anni.
Come detto non concordo su tutte le tesi del libro e dunque fatemi dire brevemente i punti sui quali concordo e quelli sui quali il mio punto di vista diverge da quello di Stefano.
Mi sembra assolutamente brillante ed interessante l’analisi del perché la “dimensione delle imprese” costituisca, nel nuovo scenario tecnologico, un possibile punto di forza della nostra economia. Le nuove reti (il 5G e le reti banda larga) riducono drasticamente i costi di transazione e cambiano in modo radicale il quadro degli incentivi alla concentrazione. La natura distribuita della struttura industriale del nostro Paese asseconda l’evoluzione verso l’elaborazione e lo storage “distribuito” favorita dalle nuove reti e dall’ottimizzazione dei flussi di merci e informazioni.
Questa interessante analisi sembra però in contraddizione con le conclusioni alle quali il libro giunge con riferimento al “cloud”. Stefano dice infatti più avanti: “l’hardware costa di meno ed è sempre più performante, i dati sono disponibili in maniera più copiosa, i super-computer servono per compiti specifici e grandi aziende, per le piccole e medie aziende c’è il “cloud”. Ecco, non credo che questo sillogismo funzioni. La conclusione dovrebbe essere: per le piccole e medie aziende c’è la computazione distribuita, l’”edge computing”, la protezione dei dati (preziosissimi) continuamente prodotti dalle nostre attività di nicchia e non la consegna di dati al “cloud” centralizzato che “fa i calcoli per noi”.
5G e intelligenza artificiale
Il 5G e l’Intelligenza Artificiale hanno infatti un potente effetto di “scoperta di nuovo valore” nelle attività di ogni singolo operatore economico: il valore dei dati. Un effetto generato dalla fame di dati degli algoritmi e dalla simmetrica produzione di nuovi dati da parte dell’Internet delle Cose e dallo sviluppo dell’Industria 4.0 o della Future Factory.
In Italia, questa scoperta del valore è potenziata, come lo stesso Stefano dice, dalla struttura naturalmente distribuita del nostro tessuto industriale. In tutto il mondo ci si rende improvvisamente conto che i dati prodotti localmente debbono essere protetti e valorizzati. Possiamo regalare le nostre informazioni personali (sbagliando) ma sarebbe suicida regalare il patrimonio aziendale dei dati associati alle nostre produzioni. Dunque, detto in modo sintetico: le reti del futuro dovranno essere in grado di proteggere il valore dei dati localizzando computazione e storage e non migrando verso il “cloud”. In Germania, Regno Unito e Francia si pianifica di assegnare frequenze in modo riservato agli usi locali, la banda dedicata al “WiFi” si allarga, le grandi aziende industriali cominciano ad immaginare aree locali 5G (si pensi al miliardo di euro investito da Bosch nel grande centro di produzione di Dresda). Gli operatori industriali sono sempre più restii a regalare i propri preziosi dati di produzione ai Telco o agli OTT. Sembra che lo sviluppo delle reti 5G sarà “bottom up”.
Gestione dei dati e competenze digitali
Questa conclusione è strettamente collegata a due temi strategici trattati dal libro di Stefano. La gestione dei dati e le competenze digitali. Si tratta di due temi al centro del libro. Sul primo Stefano torna sul concetto di “data-sharing” e co-opetition. Personalmente non concordo con queste soluzioni. La quantità crescente dei contributi scientifici che mette in discussione la natura non-escludibile dei dati e la necessità di remunerare il “data labor” o di creare un vero e proprio mercato dei dati con assoluta protezione dei diritti sui dati prodotti (ad esempio con metodi di BlockChain) mi sembrano più adatti alla “scoperta del valore dei dati” della quale abbiamo parlato.
Per quanto riguarda le competenze digitali penso che il libro ma anche le frequenti analisi che I-Com ci propone su questo tema dovrebbero meglio mettere a fuoco la questione. A esempio distinguendo tra le competenze degli utenti e le competenze necessarie a progettare, sviluppare e manutenere gli algoritmi. La prima è una carenza passeggera e che verrà risolta da vari fattori: l’avvicendamento naturale, la crescita del livello medio di istruzione ma soprattutto la crescente facilità d’uso degli oggetti connessi e l’esplosione della IOT: centinaia di milioni di oggetti connessi oscureranno le decine di milioni di umani e sapranno usare la rete.
Al contrario è alla formazione di specialisti, all’uso degli algoritmi e alla filiera di produzione dell’AI che dovranno essere indirizzate analisi e preoccupazioni. Non bastano gli STEM (e tantomeno i diplomati) servono informatici, esperti di ottimizzazione ed analisi dei sistemi. Di conseguenza, come ben evidenziato nel libro, è fondamentale il collegamento con l’Università e i Centri di Ricerca (pubblici). Non è corretto dire come fa Stefano che l’Università vuole chiudersi nella sua “turris eburnea”. Non si tratta, come sembra suggerire il libro di una scelta “isolazionista” degli universitari.
Il ruolo dell’Università
L’Università, come tutti gli indicatori della produzione scientifica dicono con chiarezza, fa la sua parte: ricerca e formazione di giovani preparati. Il suo campo da gioco è la ricerca internazionale, gli obiettivi sono quelli riconosciuti dagli esperti delle comunità scientifiche di riferimento. E’ l’industria che non è all’altezza della nostra Università, che spesso non sa di cosa ha veramente bisogno. Un data scientist o un ottimizzatore combinatorio? E per fare cosa?
Esiste un “gap” tra la qualità della ricerca universitaria e la domanda industriale. Un “gap” che fa male all’industria e all’Università, colmato dalla grande industria in Germania, dal mercato negli USA e da nessuno in Italia. Bene fa il libro a citare FBK come esempio virtuoso e al tentativo di colmare il “gap” con i centri di competenza. Queste sono le strade da seguire. No invece all’Istituto Italiano di Intelligenza Artificiale che “coordini le ricerche” o alla London Interdisciplinary School! Un No forte a questa nuova sovrastruttura destinata ad allungare la catena senza colmare il “gap” o alla tendenza a studiare tutto in modo superficiale e “interdisciplinare”. La ricerca scientifica è “disciplinare”, Il centro di coordinamento dei sui sforzi scientifici è la comunità internazionale con le sue metriche e la sua competizione creativa.