Oggi l’intelligenza artificiale fa parte del dibattito pubblico come delle nostre conversazioni quotidiane; è un argomento nuovo e molto dibattuto, ma cos’è esattamente?
In base alla definizione dell’Osservatorio AI del Politecnico di Milano, l’Intelligenza Artificiale è quel ramo della computer science che studia lo sviluppo di sistemi hardware e software dotati di specifiche capacità tipiche dell’essere umano (interazione con l’ambiente, apprendimento e adattamento, ragionamento e pianificazione), capaci di perseguire autonomamente una finalità definita, prendendo decisioni fino a quel momento solitamente affidate alle persone.
Le origini dell’Intelligenza Artificiale
L’idea dell’intelligenza artificiale, però, non è così giovane: la dizione “intelligenza artificiale” risale a metà degli anni Cinquanta del secolo scorso, ma l’idea di creare macchine, che possano emulare alcune funzioni umane, risale a tempi antichi. Antiche civiltà come i greci e gli egizi avevano racconti di statue animate e altri oggetti meccanici che sembravano avere una sorta di intelligenza. Tuttavia, l’IA come la conosciamo oggi ha radici più solide nell’Europa medievale e nel Rinascimento, quando i primi orologi astronomici e i primi automi venivano costruiti per simulare i movimenti celesti e i comportamenti umani.
Sopra l’orologio astronomico della torre di Arnolfo del Palazzo dei Priori a Volterra (1393); sotto l’orologio astronomico di Praga (1410)
Il XX secolo ha segnato un significativo progresso nella creazione di macchine intelligenti. Nel 1936, il matematico britannico Alan Turing, uno dei padri fondatori dell’informatica, ha proposto un test per determinare se una macchina può dimostrare un comportamento intelligente equivalente o indistinguibile da quello umano. Il test è noto come “test di Turing”. Turing ha introdotto questo concetto nel suo articolo del 1950 intitolato “Computing Machinery and Intelligence”.
Il test non misura la capacità della macchina di risolvere problemi matematici o di svolgere compiti specifici, ma piuttosto la sua abilità di comportarsi in modo intelligente in una conversazione umana ed è diventato uno strumento di riflessione importante nel campo dell’intelligenza artificiale e della filosofia della mente.
Negli anni ’50, il termine “intelligenza artificiale” fu coniato da John McCarthy, uno dei pionieri dell’IA, matematico e scienziato cognitivo. Nel 1956, McCarthy organizzò una conferenza al Dartmouth College, che è stata spesso considerata il momento di nascita ufficiale dell’IA come disciplina scientifica. La conferenza durò due mesi e i suoi partecipanti (scienziati cognitivi, informatici, fisici, matematici, ingegneri) discussero vivacemente sul tema. Tra loro anche Claude Shannon, padre della teoria dell’informazione e Herbert Simon, informatico, scienziato cognitivista ed economista, che nel 1975 vinse il premio Turing e nel 1978 il Nobel per l’economia. La Dartmouth Conference viene considerata il momento fondativo dell’intelligenza artificiale intesa come nuovo campo di studi.
- Le prime righe della proposta della Dartmouth Conference
L’età dell’ottimismo: dall’IA simbolica alle reti neurali
Negli anni ’50 e ’60, l’IA ha fatto progressi notevoli, soprattutto nell’ambito dell’IA simbolica. Questo approccio si basa su regole e simboli logici per risolvere problemi complessi.
Una forma popolare di IA simbolica sono i sistemi esperti, che utilizzano una rete di regole di produzione. Le regole di produzione collegano i simboli in una relazione simile a un’istruzione If-Then (se-allora). Il sistema esperto elabora le regole per fare deduzioni e per determinare di quali informazioni aggiuntive ha bisogno, cioè quali domande porre, utilizzando simboli leggibili dall’uomo. Alcuni risultati notevoli includevano il programma “Logic Theorist” di Newell e Simon, che poteva dimostrare teoremi matematici.
Il software Eliza
È stato il primo programma volutamente progettato per eseguire un ragionamento automatizzato e viene considerato il primo programma di intelligenza artificiale.
Nel 1965, Eliza, un software che simula le risposte di uno psicoterapeuta, è forse il primo programma in grado di superare il test di Turing. Eliza non “pensa” ma riesce a interagire con reazioni coerenti a richieste anche complesse, tanto che molti suoi utenti hanno l’impressione che provi sentimenti di tipo umano. Il “trucco” di Eliza era di porre una domanda al “paziente” partendo da una parola chiave pronunciata da lui. Per esempio:
Paziente: Ricordo mia mamma quando mi rimproverava.
Eliza: Che altri ricordi hai di tua mamma?
Nel 1966 nasce a Stanford Shakey, un robot “general purpose” che aveva intelligenza e capacità proprie per muoversi attraverso le stanze, costruito da Charles Rosen, responsabile del Machine Learning Group dello Stanford Research Institute. Fu chiamato Shakey perché camminando si scuoteva un po’. Nel 1968 esce il film “2001: Odissea nello spazio”. Al centro della vicenda narrata c’è Hal, un computer senziente: l’intelligenza artificiale entra nell’immaginario collettivo.
L’inverno dell’IA (AI Winter)
Il progresso nell’IA simbolica si è rivelato più lento del previsto, poiché la complessità del mondo reale era difficile da modellare con regole logiche. Questo ha portato a un declino nell’interesse per l’IA negli anni ’70 e fino agli ’80 (AI winter).
Nel frattempo, una nuova forma di IA stava emergendo: le reti neurali artificiali. Queste reti, ispirate dal funzionamento del cervello umano, hanno introdotto l’idea di apprendimento automatico.
Le reti neurali sono costituite da unità di calcolo collegate tra loro, simili ai neuroni del cervello, e in grado di apprendere dai dati. Il loro utilizzo, però, richiede una potenza di calcolo all’epoca non disponibile; perciò, all’atto pratico risultavano lente e onerose dal punto di vista dell’impegno delle CPU. Per alcuni anni, quindi, i loro studi subirono un forte rallentamento, proprio perché era difficile applicarle a casi pratici, restavano speculazioni in ambito accademico.
Dal declino al Rinascimento: l’IA nel XXI secolo
L’interesse per le reti neurali riprese agli inizi degli anni ‘80, quando diversi ricercatori si cimentarono nello sviluppo di nuovi algoritmi e modelli fino a quello detto di Backpropagation, messo a punto da David Rumelhart, Geoffrey Hinton e Ronald Williams nel 1986 [1], che permette ad una rete neurale di imparare ad associare degli ingressi con delle uscite desiderate attraverso un insieme di esempi (training set).
A partire da questo risultato, nei venti anni successivi, l’uso delle reti neurali è stato sperimentato nel campo del riconoscimento di immagini, della compressione di dati, del controllo adattivo e in molti altri settori, trovando applicazione, per esempio, nei settori dalla fisica, della medicina, dell’economia, della chimica e delle scienze sociali.
Tuttavia, non ci sono stati in questo periodo grandi progressi dal punto di vista della creazione di nuovi modelli ed algoritmi.
Le deep neural network (Reti neurali profonde)
È a partire dai primi anni 2000 che si verifica una svolta: vengono progettate le deep neural network (reti neurali profonde) che possono elaborare enormi quantità di dati, la potenza di calcolo disponibile comincia ad essere “adeguata” alle esigenze delle reti neurali, grazie allo sviluppo delle Graphic Processing Unit (GPU), microprocessori particolarmente potenti destinati originariamente all’elaborazione grafica e utilizzati con profitto nell’addestramento delle reti neurali profonde e, infine, alcune grandi aziende tra cui Google, Microsoft e Facebook, interessate ai risultati ottenuti, decidono di investire in questo settore.
I risultati positivi sono diventati di dominio pubblico e di interesse grazie anche alla competizione internazionale “ImageNet Large-Scale Visual Recognition Challenge” (ILSVRC), una sorta di olimpiade annuale della computer vision, nata nel 2010 per stimolare lo sviluppo di algoritmi per la soluzione di problemi complessi, come la classificazione e la segmentazione di immagini.
Nel 2012, per la prima volta, la competizione viene vinta da una rete neurale, AlexNet, sviluppata da un gruppo di ricerca dell’università di Toronto coordinato da Geoffrey Hinton. È stato questo il momento in cui le aziende hanno deciso di investire sulle reti neurali, contribuendo significativamente al loro ulteriore sviluppo. Negli anni successivi le reti neurali continuano a vincere la competizione, portando al minimo l’errore, al punto che la competizione del 2017 è stata l’ultima; dal 2018 gli organizzatori l’hanno orientata a problemi più complessi.
I successi delle macchine che funzionano con reti neurali si sono ripetuti negli anni: nel 1996, un computer dell’IBM, Deep Blue, sconfigge il campione del mondo di scacchi Gary Kasparov.
Deep Blue sconfigge Kasparov il 10 febbraio 1996
Il computer Watson campione di Jeopardy e l’IA Eugene Goostman passa il test di Turing
Nel 2011 Watson, un computer che risponde a domande poste nel linguaggio umano, sconfigge i campioni del gioco Jeopardy!. Nel 2014, in occasione delle celebrazioni per il sessantesimo anniversario per la morte di Alan Turing, Eugene Goostman, un ragazzino di tredici anni, Ucraino, vince la sfida del test di Turing. All’inizio della conversazione si scusa per il suo pessimo inglese e per la sua grammatica non così perfetta, ma l’inglese non è la sua lingua madre. È brillante, simpatico, goffo quando sbaglia e cerca di correggersi. Ma Eugene non esiste, è un‘intelligenza artificiale.
Eugene Goostman vince la sfida del test di Turing, ma è un chatbot.
Nel 2017, è stata la volta del campione del mondo di Go, Ke Jie, sconfitto da un computer di Google Deep Mind, AlphaGo Zero.
Nel 2018, durante un TED a Vancouver, Pierre Barreau, un giovane informatico e musicista residente in Lussemburgo presenta AIVA, la prima intelligenza artificiale, sviluppata poi all’Università di Vancouver dal 2016, in grado di comporre musica classica, sinfonica e colonne sonore. AIVA è stato addestrato con brani di Mozart, Beethoven e Bach, e compone brani musicali, musica classica e sinfonica e, proprio nel 2018, la colonna sonora per uno dei videogame più popolari del mondo, Battle Royale di Fortnite. Si avvera la previsione di Ada Lovelace, che, nel 1840, aveva intuito proprio la possibilità per i computer di comporre musica.
Pierre Barreau presenta AIVA alla TED a Vancouver
L’IA oggi
Siamo quindi ai nostri giorni: l’IA è ormai oggetto della nostra esperienza quotidiana.
Per esempio, grazie agli enormi miglioramenti nella comprensione del linguaggio naturale, otteniamo dai traduttori automatici, tipo di Google Translate, traduzioni di buona qualità. Il linguaggio parlato viene correttamente interpretato dagli assistenti vocali (Alexa, Siri ecc.); generare automaticamente i sottotitoli nei video si ottiene con un clic, come le trascrizioni automatiche dei sistemi per la gestione di riunioni online.
È possibile far leggere il labiale da una IA: la deep network LipNet è in grado di decifrare i movimenti delle labbra con una precisione del 95%, contro il 55% di un umano esperto. È stata sviluppata all’Università di Oxford a partire dal 2016. Il riconoscimento vocale audiovisivo ha un enorme potenziale, per esempio per migliorare gli apparecchi acustici, in applicazioni mediche per assistere pazienti critici, il riconoscimento vocale in ambienti rumorosi e molti altri.
LipNet legge il labiale
La dignosi medica di ChatGPT
A settembre 2023 è stata diffusa la notizia che ChatGPT ha fatto una diagnosi medica. Si trattava di un bambino affetto da spina bifida occulta, conosciuta anche come sindrome del midollo ancorato, ovvero un disturbo neurologico che limita il movimento del midollo spinale.
La mamma ha creato un account e ha condiviso con la piattaforma di Intelligenza Artificiale tutto ciò che sapeva: dai sintomi alle cartelle mediche e ai referti delle consultazioni con 17 medici esperti. La diagnosi elaborata da ChatGPT è stata confermata da un neurochirurgo specializzato nel disturbo che, senza indugio, ha preso in cura il bambino. È chiaro che il vantaggio della IA rispetto al medico umano sta nella capacità di confrontare in poco tempo quantità enormi di dati, lavoro che a un umano, probabilmente, richiederebbe mesi di lavoro, ammesso di avere tutto il materiale a disposizione.
La diagnosi di ChatGPT
L’IA per creare audio e video
È possibile creare audio e video: Synthesia, una startup fondata nel 2017 da giovani ricercatori di varie università, ha creato una piattaforma online per la generazione automatica di presentazioni video in 120 lingue mediante un avatar sintetico. L’utente inserisce un testo e il sistema genera una presentazione con un avatar realistico che pronuncia il testo replicando espressioni del volto e movimenti delle labbra.
L’utilizzo dell’IA e la stessa IA sono in continua evoluzione e ogni giorno scopriamo nuove applicazioni e prestazioni sempre più spinte e complesse che oggi non potremmo immaginare. Probabilmente quando questo articolo verrà pubblicato qualche informazione sarà già “vecchia”.
L’IA domani
Alcune delle evoluzioni dell’IA sono prevedibili: sostituirà l’uomo nei compiti ripetitivi, verrà usata nelle previsioni finanziarie, potrebbe alleviare la crisi climatica prevedendo i percorsi ottimali e lo sfruttamento ottimale delle risorse, favorirà la ricerca potendo accorciare molto i tempi di alcuni test, soprattutto in medicina e molti altri impieghi. È altrettanto prevedibile che contribuirà notevolmente al consumo energetico: l’allenamento di una IA generativa, per esempio, basata su un LLM (large language model), emette circa 25 volte più anidride carbonica di un viaggio aereo da costa a costa degli USA.
Un altro problema aperto su cui di dibatte molto già oggi è quello etico e della privacy, che richiede un significativo intervento normativo da parte dei governi, per evitare che vengano violati i diritti umani fondamentali. Su questo punto l’Europa si è dimostrata particolarmente attiva con la recente emanazione dell’AI Act.
Il rapporto del World Economic Forum del 2023 prevede l’impatto di IA anche sui posti di lavoro: lo specialista di AI e Machine Learning (apprendimento automatico) è al primo posto tra le 10 professioni in maggiore crescita.
E, ancora, prevede che l’automazione nel lavoro, dovuta alle nuove tecnologie, passerà dal 34% del 2022 al 43% ne 2027.
Infine, l’impatto dell’IA sulla crescita dei posti di lavoro contribuirà positivamente in misura del 49%.
Il report stima complessivamente che il 23% delle professioni cambierà e ci sarà la creazione di 69 milioni di posti di lavoro a fronte della perdita di 83 milioni. Quello che molti prevedono è che le persone potranno dedicarsi a lavori più creativi e meno ripetitivi.
Alcuni predicono che nei prossimi anni verrà messa a punto una super intelligenza artificiale (ASI, Artificial Super Intelligence) in grado di imparare da sola in qualunque settore e di superare definitivamente l’intelligenza degli umani: i ricercatori ritengono che lo scenario sia per ora solo teoricamente interessante, ma lontano dalla sua attuazione, che richiederebbe una potenza di calcolo oggi non disponibile.
Conclusioni
Il futuro dell’intelligenza artificiale sul medio termine non è facilmente prevdedibile. Ci sono molte incognite e molte opportunità, come si è sempre verificato nella storia in occasione di imporanti trasformazioni e invenzioni tecnologiche. Il punto cruciale è che l’Uomo, inteso come società e comunità di persone, riesca a indirizzarne e guidarne lo sviluppo secondo obiettivi che puntino al miglioramento delle condizioni sociali e personali. Il nostro futuro, in parte, dipenderà da come sceglieremo di plasmare l’intelligenza artificiale. La decisione può essere presa solo sulla base di un confronto tra i vari “stakeholder”: scienziati, filosofi, politici e cittadini comuni, in modo da orientare l’intelligenza artificiale a beneficio dell’umanità e non a diventare una minaccia.
Riferimenti
- Rumelhart D. E., Hinton G. E., and Williams R. J.: “Learning representations by back-propagating errors”, Nature, Vol. 323, 1986