Si sta creando rapidamente un nuovo rapporto uomo-macchina, che richiede interazioni e forme di collaborazione profondamente diverse rispetto al passato. E’ importante lavorare tutti insieme sulle nuove sfide che l’intelligenza artificiale e gli algoritmi stanno creando, soprattutto sui loro aspetti etici, di responsabilità, di discriminazione, di trasparenza, di equità, di organizzazione del lavoro e di governo nella nostra società.
Per fare questo sono necessarie competenze fortemente interdisciplinari, che sappiano dialogare e lavorare insieme, in modo aperto, a 360 gradi, su tecnologie digitali, scienze sociali, economia, diritto, scienze politiche, cultura e società.
L’intelligenza artificiale è oramai ovunque. Ne sentiamo parlare in continuazione. Ne parliamo tutti, anche se forse talvolta un po’ a sproposito. Negli ultimi mesi, intelligenza artificiale è diventato un termine presente persino nelle pubblicità. Nel frattempo, gli Stati Uniti e la Cina, per cui in questo momento la tecnologia è una forte chiave di attrito commerciale, hanno iniziato una corsa a due per il predominio nell’intelligenza artificiale. Nel luglio 2017 il Consiglio di Stato della Cina ha emesso un Piano di sviluppo dell’intelligenza artificiale di nuova generazione, con fortissimi investimenti (dell’ordine dei miliardi di dollari) e con l’obiettivo dichiarato di raggiungere la supremazia nell’intelligenza artificiale in pochi anni, entro il 2030. Altri paesi, come Francia, Canada e Corea del Sud, hanno elaborato una loro strategia nazionale per l’intelligenza artificiale. Pochissimi mesi fa, esattamente l’11 febbraio 2019, anche il Presidente degli Stati Uniti ha firmato un executive order per creare un programma denominato the American AI initiative. Questo è l’impatto dell’intelligenza artificiale e questo è lo scenario in cui ci stiamo muovendo oggi.
Da Watson di Ibm al deep learning
Ma cosa è esattamente l’intelligenza artificiale? In maniera forse un po’ troppo semplicistica, potremmo dire che la sfida dell’intelligenza artificiale è quella di rendere i computer, le macchine, capaci di eseguire compiti tipici dell’intelligenza umana. Per gli addetti ai lavori, gli informatici come me, fino a poco tempo fa il termine intelligenza artificiale indicava il futuro: l’intelligenza artificiale era tutto quello che avremmo voluto fare ma che ancora non eravamo in grado di fare. Poi sono arrivati alcuni cambiamenti epocali: nel 2011 Watson, un sistema costruito da IBM, ha vinto a Jeopardy, un famoso e complicato gioco a quiz televisivo americano. Nel 2012 Jeff Dean and Andrew Ng hanno pubblicato un articolo scientifico pionieristico in cui descrivevano, tra le altre cose, un sistema basato su reti neurali multilivello (deep learning) che era sorprendentemente esperto nel riconoscimento di immagini di gatti, un compito che sembrava fuori dalla portata delle macchine.
Grazie ai progressi incredibili nel riconoscimento delle immagini, oggi abbiamo Image Search di Google: gli forniamo un’immagine e ci dice dove si trova quell’immagine, o immagini molto simili, sul Web. Abbiamo costruito i primi sistemi di riconoscimento facciale con un grado di affidabilità molto elevato, e che si trovano oramai ovunque, dai nostri telefoni alle reti sociali, fino al controllo dei passaporti negli aeroporti. Anche grazie al riconoscimento delle immagini, abbiamo cominciato ad avere i primi veicoli a guida autonoma, che devono essere innanzitutto in grado di “vedere” e di riconoscere altri veicoli e altri oggetti nelle loro vicinanze. Nel 2009 i veicoli a guida autonoma viaggiavano soltanto nel deserto. Soltanto pochissimi anni dopo hanno cominciato a frequentare le nostre strade. Ricordo ancora quando nell’estate del 2011, mentre stavo visitando Microsoft Silicon Valley a Mountain View in California, mi sono trovato dietro un’automobile a guida autonoma di Google. E da buon italiano ho subito pensato: “E se adesso mi tampona, che cosa devo fare? Con chi andrò a discutere sull’incidente?”.
Negli ultimi anni, poi, i progressi nell’intelligenza artificiale sono diventati ancora più impressionanti. Nel 2015 AlphaGo, un sistema costruito da Google, e sempre basato su deep learning, ha battuto un campione mondiale di Go, un gioco molto complicato. Pochi mesi fa, nel febbraio 2019, a San Francisco si è svolto un debate (una gara di dibattito) tra Harish Natarajan, che ha il più grande numero di vittorie in debate al mondo, e una macchina costruita da IBM per questo scopo, Project Debater. Anche se alla fine la giuria ha assegnato la vittoria all’uomo, se guardiamo il video di questo dibattito ci accorgiamo che le capacità dialettiche e retoriche della macchina Project Debater sono veramente impressionanti. Forse abbiamo sentito parlare del Test proposto da Turing 70 anni fa, di cui si parla anche nel famoso film “The Imitation Game”. Semplificando molto, un computer è in grado di passare il test di Turing se un osservatore esterno, che ascolta soltanto la conversazione, non è in grado di distinguerlo da un essere umano. Ecco, dopo aver ascoltato il dibattito tra Harish Natarajan e Debater, si ha come la sensazione che le macchine si stiano avvicinando sempre di più a superare il Test di Turing.
Intelligenza artificiale, un termine abusato
All’improvviso, grazie anche a molti altri incredibili sviluppi, per noi l’intelligenza artificiale non è stata più il futuro, ma è diventata il presente. Ognuno ha cominciato a chiamare intelligenza artificiale tutto quello che sta facendo. Abbiamo assistito quasi a una personificazione dell’intelligenza artificiale, tanto che spesso sentiamo dire: “L’intelligenza artificiale si comporta in questo modo, l’intelligenza artificiale fa così”. Intelligenza artificiale oggi è un termine molto abusato, che significa più o meno tutto, e quindi forse rischia di essere un po’ svuotato dai suoi significati. In realtà non vorrei parlare di questa concezione dell’intelligenza artificiale. Vorrei invece focalizzarmi su quello che secondo me è il contributo più importante nell’area dell’intelligenza artificiale negli ultimi anni, ovvero gli algoritmi di machine learning. Per chiarire la differenza, sempre tra gli addetti ai lavori, circola da tempo questa battuta:
Qual è la differenza tra machine learning e intelligenza artificiale?
Se è scritto in Python (Python è un linguaggio di programmazione), molto probabilmente è machine learning.
Se è scritto in PowerPoint, molto probabilmente è intelligenza artificiale.
Ispirandoci a questa battuta, che in fondo sembra nascondere un po’ di verità, proviamo a distogliere l’attenzione dall’intelligenza artificiale scritta in PowerPoint, dalla visione futuristica di robot autonomi, super intelligenti, tipo Terminator, che conquisteranno il mondo. Proviamo invece a concentrarci sugli algoritmi di machine learning. Anche machine learning è un termine usato ormai ovunque. Anche qui, sembra che oggi tutti facciamo o vogliamo fare machine learning. Sembra una novità dell’ultima ora, ma in realtà si è cominciato a lavorare su machine learning sin dagli anni ‘60, e la ricerca su machine learning è fiorita in ambito accademico soprattutto agli inizi degli anni ‘90. Quasi 30 anni fa.
Ma gli algoritmi di machine learning sono usciti dall’ambito accademico e sono entrati prepotentemente nelle nostre vite soltanto negli ultimi anni, grazie anche a due fattori importanti: la disponibilità di grandissime quantità di dati, e di computer sempre più potenti e in grado di elaborare velocemente queste grandissime quantità di dati. In realtà gli algoritmi di machine learning sono solo una piccola parte della disciplina dell’intelligenza artificiale. E anche il deep learning, per intenderci quello reso noto dal lavoro pionieristico di Dean e Ng, e poi utilizzato da sistemi molto potenti, come ad esempio AlphaGo, oggi è molto di moda. Ma non è che una delle tantissime direzioni del machine learning in cui abbiamo lavorato negli ultimi decenni. Non è neanche tanto chiaro che deep learning sarà la tecnica più utile nel futuro immediato. Però negli ultimi anni ha prodotto risultati strabilianti. Come riconoscere i gatti nelle fotografie, e tutto quello di importante che ne è derivato.
Ecco perché l’algoritmo è una “scatola nera”
Ma cosa sono gli algoritmi? Semplificando al massimo, potremmo dire che gli algoritmi sono sequenze di istruzioni, linee di codice, che possiamo scrivere e che possiamo leggere. Ad esempio, nel recente scandalo Dieselgate, lo scandalo delle emissioni in cui sono state coinvolte varie case automobilistiche, il problema risiedeva in un’applicazione software che era in grado di riconoscere se il veicolo fosse sottoposto a un test di omologazione (e di conseguenza di ridurre le emissioni). In quel caso, è stato possibile prendere quel codice software, sezionarlo ed esaminarlo con attenzione, e capire esattamente cosa faceva e perché produceva un certo risultato durante i test di omologazione e un risultato molto diverso durante il normale funzionamento. In modo del tutto trasparente, spiegabile, interpretabile e riproducibile.
Gli algoritmi di machine learning agiscono in modo diverso dagli algoritmi tradizionali. La differenza principale è che machine learning usa del codice per consentire a un sistema automatico di imparare e di creare un modello del problema che bisogna risolvere. Un modello che non è però spesso facilmente interpretabile come le line di codice degli algoritmi tradizionali. Per fare un esempio molto approssimativo, e forse anche un po’ esagerato, potremmo pensare al modello prodotto da un algoritmo di machine learning come a un cervello umano. Non possiamo dissezionare il cervello per capire cosa è successo, perché è stata presa una certa decisione.
Possiamo provare a osservare dall’esterno, a fare delle domande, interrogare la persona e analizzare le sue risposte. Ma questo è un processo lungo, non sempre conduce a conclusioni esatte, e non sempre fa capire perché è stata presa una certa decisione. In questo caso, il meccanismo con cui è stata presa una decisione è poco chiaro, poco trasparente e più difficilmente spiegabile. Per questo gli algoritmi di machine learning sono come una scatola chiusa, una black box, che non può essere aperta molto facilmente. Non è realmente chiaro come fa una macchina a riconoscere le immagini. Si costruisce un suo modello, e ovviamente può anche fare errori. Anche se una macchina può ottenere risultati confrontabili a quelli di un essere umano, il suo modo di operare, la sua logica è completamente diversa da quella di un essere umano. Può riconoscere un’immagine o fare un errore, ma per motivi completamente diversi da quelli di un essere umano.
La parte più delicata di tutto questo processo è proprio la creazione del modello, che viene costruito a partire dai dati. Questa è la fase di training: gli algoritmi di machine learning usano i dati per imparare, cercano di trovare segnali nascosti all’interno dell’enorme quantità di dati su cui lavorano (da cosa possiamo capire che c’è un gatto nella foto? Da cosa possiamo capire che c’è un pedone che sta attraversando la strada? O comprendere la segnaletica stradale?). Gli algoritmi usati per creare questi modelli sono molto sofisticati. Come diceva lo statistico George Box, “Tutti i modelli sono sbagliati, ma qualcuno è utile” (“All models are wrong, but some are useful”).
Gli algoritmi di machine learning fanno esattamente questo: costruiscono modelli complicati, modelli sbagliati, ma fondamentalmente molto utili. Soprattutto se i dati sui cui hanno fatto training sono molti e di buona qualità. Altrimenti si rischia di creare un modello non solo sbagliato, ma anche inutile: come dicono i nostri colleghi anglosassoni, Garbage In Garbage Out: prendendo spazzatura in ingresso (dati molto sporchi o di cattiva qualità), produciamo spazzatura in uscita (un modello sbagliato e inutile). Nonostante questi limiti, gli algoritmi di machine learning hanno avuto un impatto incredibile in molte discipline e persino nelle nostre vite quotidiane. Le loro applicazioni sono innumerevoli, e in un numero di settori troppo lungo per essere persino elencato. In tutti questi settori, hanno risolto in modo nuovo molti problemi difficili, che prima non si sapeva risolvere affatto. Ma hanno anche creato problemi completamente nuovi, e anche loro di non facile risoluzione.
Il nodo “fiducia” nella Sanità: medici e informatici in settori come la Sanità
Come è avvenuto ad esempio nella medicina. Oggi ci sono molti algoritmi di machine learning che sono in grado di diagnosticare i primi segnali di malattie, come ad esempio patologie mentali, cardiopatie, tumori. Lavorano su grandissime quantità di dati provenienti da pazienti, costruiscono i loro modelli, e dai primi esperimenti riescono ad avere accuratezze confrontabili e a volte superiori a quelle dei medici. A scoprire i primi segnali di patologie che i medici non riescono ancora a vedere, così da poter intervenire tempestivamente con le terapie necessarie e salvare vite umane.
Ma questo genera anche problemi completamente nuovi. Innanzitutto c’è un problema di fiducia: in un campo così delicato, come quello della medicina, come faccio ad avere fiducia in un sistema che non è trasparente, non è interpretabile da un essere umano? Nella medicina non è poi così immediato riuscire ad avere fiducia in un oracolo, uno stregone, o in una black box. E inoltre, in medicina è molto importante la fase di validazione clinica. In questo caso chi la fa?
I medici spesso non hanno gli strumenti per capire e utilizzare algoritmi e modelli molto complicati. Gli informatici non hanno né gli strumenti né gli incentivi per aiutare i medici nelle fasi di validazione clinica. Molto spesso, i modelli funzionano molto bene per la popolazione su cui sono stati sviluppati, ma se vengono applicati a una popolazione diversa, proveniente da altre nazioni o semplicemente da altre aree geografiche, rischiano di fare degli errori. Oggi più che mai, c’è un estremo bisogno di far lavorare insieme medici e informatici per risolvere questi nuovi problemi, per costruire effettivamente nuovi sistemi diagnositic e terapeutici che funzionano.
Machine learning ha avuto un impatto incredibile anche nell’economia e nella finanza. Secondo stime recenti, in questo settore le fintech companies stanno conquistando velocemente quote molto importanti del mercato totale. Abbiamo già moltissimi strumenti basati interamente su machine learning e che non richiedono alcun intervento umano, come ad esempio i robo-advisor, che sono dei consulenti finanziari digitali, abbiamo piattaforme digitali di valutazione dei rischi (risk assessment), abbiamo strumenti per la gestione del portafoglio di investimenti, per stimare l’affidabilità creditizia (credit score) delle società e delle persone, per la rilevazione di frodi, abbiamo anche piattaforme di algorithmic trading che analizzano velocemente enormi quantità di dati ed effettuano in maniera automatica acquisti e vendite di titoli e azioni.
Questo sviluppo rapido, oltre ad aprire nuovi mercati e nuove opportunità, ha anche sollevato qualche preoccupazione. Innanzitutto, gli algoritmi di machine learning, per loro natura, costruiscono i loro modelli basandosi su grandi quantità di dati, che sono ovviamente dati del passato, dati storici. Negli Stati Uniti, questo sta già rafforzando discriminazioni e pregiudizi storici, ad esempio nel concedere mutui o prestiti, o nell’accesso a determinati servizi. E il fatto che abbiamo bisogno di una grandissima quantità di dati genera ovviamente anche problemi complessi relativi alla privacy e alla proprietà di questi dati.
La sfida etica dell’algoritmo
Un altro punto molto importante è relativo agli aspetti etici degli algoritmi. Man mano che algoritmi assumono responsabilità crescenti, come ad esempio eseguire transazioni finanziarie, influenzare decisioni importanti, oppure guidare veicoli autonomi, sembra importante poter spiegare agli utenti perché è stata presa una certa decisione, capire come poter assicurare comportamenti etici nell’interesse degli utenti. Chi è responsabile delle decisioni prese da un algoritmo? La risposta a questa domanda non è affatto banale. Proprio perché se è un algoritmo di machine learning, non è neanche chiaro perché abbia preso quella decisione. Tutti questi problemi, come discriminazioni, privacy, responsabilità degli algoritmi, sono nuovi e molto complicati. Problemi che non sono soltanto tecnologici, che non sono soltanto economici, che non sono soltanto tipici delle discipline sociali, e che quindi non possono essere affrontati con approcci tradizionali di queste discipline. Richiedono sempre più una stretta collaborazione e contaminazione tra esperti provenienti da discipline completamente diverse, che devono confrontarsi e lavorare insieme, con molto impegno e apertura mentale.
Un’altra area molto importante, e nello stesso tempo anche molto delicata, è il diritto. Anche qui, abbiamo i primi algoritmi, i primi modelli di machine learning che sono in grado di fare cose sorprendenti, come ad esempio esaminare, revisionare documenti e contratti legali con un’accuratezza simile a quella dei professionisti, degli avvocati.
Pochi mesi fa LawGeex, una piccola società con sedi a New York e Tel Aviv, che sviluppa sistemi basati su machine learning per contratti legali, ha messo a confronto un suo algoritmo con 20 avvocati nell’analisi di accordi di non divulgazione (non disclosure agreement). Nell’esperimento effettuato, l’algoritmo di machine learning, costruito facendo training su decine di migliaia di accordi di non divulgazione, ha avuto un’accuratezza confrontabile a quella dei migliori avvocati, e ovviamente ha impiegato molto meno tempo (ordine di secondi rispetto alle ore richieste in media dagli avvocati). Anche per questo tipo di applicazioni, abbiamo problemi molto simili a quelli visti per il settore finanziario.
Problemi di discriminazioni e di pregiudizi storici, soprattutto quando ci inoltriamo nell’ambito del diritto penale, come si sta già cominciando a fare in qualche paese. Come facciamo a fidarci delle conclusioni raggiunte da una scatola chiusa, da un algoritmo non trasparente, non interpretabile da un essere umano? Ancora una volta, chi è responsabile delle decisioni prese da un algoritmo? Anche questi problemi non possono essere risolti soltanto da giuristi o soltanto da informatici. C’è un urgente bisogno di lavorare insieme, e alla pari, su questi temi. Di imparare, ognuno dagli altri.
L'”incubo computazionale”: il caso di Boston
Un ultimo caso che può essere interessante analizzare, sempre indicativo dei problemi risolti ma anche dei nuovi problemi che possono essere creati dagli algoritmi, è un esempio concreto accaduto l’anno scorso a Boston. Riguarda il servizio degli school bus, i bus navetta, per accompagnare gli studenti nelle scuole pubbliche. A Boston vengono spesi ogni anno oltre 120 milioni di dollari per fornire questo servizio a più di 25.000 studenti di oltre 200 scuole pubbliche con un totale di 650 school bus. Organizzazione bene questo servizio è un problema complicatissimo. Bisogna decidere quanti school bus utilizzare, che giro far fare a ogni school bus, decidere tutte le fermate degli school bus in modo che ognuna delle fermate sia raggiungibile a piedi. A questi vincoli se ne aggiungono molti altri, come ad esempio studenti disabili o con necessità speciali, strade piccole in cui non possono accedere tutti gli school bus, e nel caso di Boston ovviamente i grandi problemi di traffico tipici delle grandi città.
In poche parole, trovare una buona soluzione a questo problema è veramente un incubo computazionale. Non lo può fare un essere umano, ma è anche molto complicato per un algoritmo. Nel 2017 Boston Public Schools avviò una collaborazione con Dimitris Bertsekas, una delle superstar di ricerca operativa della Sloan School of Management di MIT, con l’obiettivo di ridurre di 50 unità il numero di school bus utilizzati, per un risparmio stimato di 5 milioni di $ l’anno. Sia Boston che MIT fecero una grandissima pubblicità a questa partnership tra pubblico / università / privato, che avrebbe sicuramente migliorato l’efficienza di un servizio pubblico, e consentito di investire le risorse risparmiate in progetti per il miglioramento della qualità dell’istruzione.
Era un successo annunciato, e tutti si aspettavano che questo avrebbe dimostrato ancora una volta l’incredibile impatto degli algoritmi e delle tecnologie sul miglioramento della società. Ma purtroppo non è andata esattamente così. Appena è stato annunciato il cambiamento nell’orario degli school bus, alcune famiglie hanno trovato il nuovo orario inaccettabile e hanno protestato veementemente, marciando verso la City Hall. Questa protesta ha costretto il sistema delle scuole pubbliche di Boston a ritornare all’orario precedente, facendo sprecare tutto il lavoro fatto, tutte le risorse finanziarie e il tempo investito nel progetto. Questo è successo a Boston, la culla tecnologica del paese più avanzato al mondo.
Un fallimento degli algoritmi? Non direi. La soluzione tecnologica, gli algoritmi, hanno probabilmente ottenuto la migliore soluzione possibile dal punto di vista tecnologico. Ma il problema non era soltanto tecnologico. Chi ha protestato era una minoranza, e lo ha fatto perché ha visto che il nuovo orario avrebbe peggiorato la propria situazione particolare, senza considerare che forse la situazione complessiva, il benessere sociale, come si chiama in teoria dei giochi, sarebbe migliorato, e di molto.
Chi ha protestato ha criticato l’algoritmo, che è stato visto come una scatola chiusa, qualcosa di non trasparente, che prendeva decisioni sulla vita personale dei cittadini. L’algoritmo aveva l’obiettivo di bilanciare i vari trade-off, cercando di non penalizzare soprattutto le famiglie più deboli, per cui i cambiamenti negli orari dei propri figli avrebbero generato maggiori criticità. Credo che non sia stato un fallimento degli algoritmi. Ciò che probabilmente non ha funzionato è il modo in cui i policy maker hanno pensato di utilizzare un algoritmo per cambiare policy che hanno effetti immediati sulle vite delle persone.
L’algoritmo da solo non può farcela
Più che altro, è stato un fallimento del processo politico con cui la città di Boston ha deciso di affrontare il problema di ottimizzare costi, interessi e vincoli dei suoi cittadini, che non è un problema tecnologico, e che non può essere affidato esclusivamente a un algoritmo. Ancora una volta, questo ci insegna che diventa sempre più cruciale la collaborazione concreta di computer scientist, che progettano e comprendono come funzionano gli algoritmi, e di political scientist, che sono esperti di policies, di come vanno pesati i vari trade-off per il benessere sociale, e delle caratteristiche fondamentali delle moderne democrazie.
Cosa ci aspetta e cosa possiamo fare nell’immediato futuro? Nel lontano 1950, Alan Turing ha concluso il suo famoso articolo “Computing machinery and intelligence”, in cui tra l’altro ha definito “The Imitation Game”, il già citato Test di Turing, con la famosa frase “We can only see a short distance ahead, but we can see plenty there that needs to be done.” (“Possiamo vedere soltanto una piccola distanza davanti a noi, ma possiamo vedere che ci sono moltissime cose da fare”).
A 70 anni di distanza è cambiato quasi tutto. Le tecnologie hanno completamente rivoluzionato la nostra società, il nostro modo di lavorare e il nostro modo di vivere. Ma l’affermazione di Turing sembra ancora molto attuale. Anche oggi riusciamo a vedere soltanto cosa succederà a breve, due o tre anni. Ma anche basandoci su questo limitatissimo orizzonte temporale, possiamo vedere che c’è ancora moltissimo lavoro da fare.
Si sta creando rapidamente un nuovo rapporto tra noi e le macchine, con una diversa distribuzione dei ruoli, e che richiede interazioni e forme di collaborazione profondamente diverse rispetto al passato. Con le macchine che sono in grado di eseguire compiti sempre più sofisticati e “intelligenti”, ma che qualche volta possono interferire e produrre nuovi problemi e nuovi conflitti con le azioni degli esseri umani, come i recenti disastri aerei dei Boeing 737 Max ci hanno purtroppo insegnato. La necessità di questo nuovo rapporto tra esseri umani e macchine non può più essere sottovalutato. Dobbiamo contribuire a disegnarlo, senza fanatismi digitali da un lato né visioni catastrofiche di un futuro governato dalle macchine dall’altro. La storia ci ha insegnato che il progresso va avanti comunque, e che non può essere fermato.
Il progresso irrompe, non chiede permesso. E nel contesto attuale disegnare questo nuovo rapporto tra esseri umani e macchine non è per niente facile. Anche perché le tecnologie digitali hanno una velocità impressionante. Le tecnologie di ieri, come ad esempio la TV, la radio, l’elettricità, l’automobile hanno impiegato più di 50 anni per raggiungere i 50 milioni di utenti. Ci hanno concesso tutto il tempo per abituarci alle loro innovazioni, per avere nuove regole sul loro utilizzo, e per organizzare le nostre vite e le nostre società di conseguenza. Oggi, le tecnologie digitali irrompono molto più velocemente, e non ci danno affatto il tempo per organizzarci e per abituarci alle loro dirompenti innovazioni. Un esempio evidente di questa velocità viene dalle reti sociali: Twitter ha impiegato meno di 3 anni per raggiungere i 50 milioni di utenti; Facebook e Instagram meno di 2 anni. Anche se il record della velocità è quello di Pokemon Go, che è riuscito a raggiungere i 50 milioni di download in soli 19 giorni!
In questo scenario, è molto importante lavorare tutti insieme sulle nuove sfide che gli algoritmi stanno creando, soprattutto sui loro aspetti etici, di responsabilità, di discriminazione, di trasparenza, di equità, di organizzazione del lavoro e di governo nella nostra società. Per fare questo sono necessarie competenze fortemente interdisciplinari, che sappiano dialogare e lavorare insieme, in modo aperto, a 360 gradi, su tecnologie digitali, scienze sociali, economia, diritto, scienze politiche, cultura e società. Ed è altrettanto importante riuscire a trasferire tutto questo ai nostri giovani, agli studenti delle nostre scuole e delle nostre università, che domani avranno il compito di dare un contributo fondamentale alla crescita della società, delle aziende e delle organizzazioni in cui andranno a lavorare. E in questo avranno tanto più successo quanto più saranno in grado di affrontare le nuove sfide che gli algoritmi e l’intelligenza artificiale stanno creando oggi. Questa è forse una delle più grandi sfide di oggi. Soprattutto per un paese, come il nostro, che sconta già gravissimi ritardi nella formazione di capitale umano per la società digitale.