Recentemente, dopo aver pubblicato un breve articolo che spiega come funziona il deep learning e perché personaggi come Musk e Hawking ne hanno paura, sono stato coinvolto in una discussione dove l’argomento era se l’intelligenza artificiale (IA) fosse considerabile vera intelligenza.
Due opposte tesi sull’intelligenza artificiale
Stefano Quintarelli, sosteneva l’opinione di Jerry Kaplan, professore di IA e filosofia dell’Università di Stanford, che in un articolo pubblicato nel marzo 2017 su MIT Technology Review spiega come – secondo lui – usare il termine “intelligenza” sia fuorviante. Infatti, ci dice Kaplan, non è che la nostra Tesla autonoma, dopo averci portati al lavoro, si iscriverà su Uber e cercherà di guadagnarsi qualche soldo scarrozzando sconosciuti: i dispositivi basati sull’IA, anche se sono in grado di svolgere perfettamente molti compiti in autonomia, non sono realmente intelligenti, poiché non sono dei veri esseri senzienti, dotati di autocoscienza e capacità di ragionare.
Un algoritmo di machine learning moderno, sempre secondo Kaplan, non è concettualmente differente da un telaio Jacquard programmabile con schede perforate del diciottesimo secolo; semplicemente, si tratta di un programma che fa ciò che è stato istruito a fare, e pertanto non merita di essere chiamato intelligente. Per la stessa ragione ragione Quintarelli ritiene che la locuzione “Intelligenza artificiale” sia intrinsecamente fuorviante e che piuttosto, come suggerisce Kaplan, bisognerebbe denominare l’IA moderna computazione antropica, poiché questo nome identifica meglio una disciplina definita da un insieme di programmi e tecniche che mimano le abilità umane – senza però essere effettivamente senzienti come un essere umano.
Per quanto mi sia possibile, però, io nel mio piccolo non riesco a non dissentire con Kaplan. Il problema del suo discorso è che identifica l’intelligenza con l’essere umano; allo stesso modo, Quintarelli mi ha chiesto “ma tu, considereresti un lombrico intelligente?”, sottintendendo che un lombrico non meriti tale onore. Invece, la risposta secondo me è si; certo, non intelligente come un essere umano, ma certamente più intelligente di un qualsiasi essere inanimato.
Il punto è che ancora oggi non c’è una definizione chiara e univoca di cosa sia l’intelligenza. Senza cercare troppo, è possibile trovare oltre una settantina di definizioni diverse di intelligenza fornite da enciclopedie, psicologi cognitivi, e ricercatori di intelligenza artificiale. D’altro canto, non siamo nemmeno sicuri che ci sia un solo tipo di intelligenza: influenti scienziati hanno proposto tre, quattro, o addirittura sette diversi tipi di intelligenza, ognuna specializzata nel proprio campo (linguistica, logico-matematica, cinestetica, …).
Un fatto su cui la maggior parte dei ricercatori concordano, però, sembra essere l’abilità di imparare dall’esperienza come una caratteristica che identifica l’intelligenza. L’esperienza insegna a noi umani a non ripetere gli stessi errori, come toccare una pentola calda o prendere un coltello dalla lama. Lo stesso vale per gli animali: per addestrare un cane a sedersi, ogni volta che gli dite “siediti” e lui obbedisce dovrete dargli una ricompensa, cosicché lui associ l’essere obbediente ai vostri ordini a esperienze positive. E, si, è stato dimostrato che i lombrichi sono in grado di usare l’esperienza per imparare a navigare in semplici labirinti, sempre utilizzando meccanismi di ricompensa per le azioni positive.
L’idea di “premiare” le azioni positive e punire o ignorare quelle negative è proprio ciò che sta alla base delle reti neurali artificiali moderne. La tecnica usata per allenare queste reti, chiamata backpropagation, è basata sul ricalcolo delle connessioni tra i neuroni in base alla differenza tra il risultato corretto che la rete dovrebbe ritornare e quello che ha effettivamente ritornato. In altre parole, se la rete ottiene un risultato corretto, le connessioni tra i neuroni rimangono stabili; altrimenti, vengono aggiornate in base all’errore commesso. Con tecniche diverse, l’idea di minimizzare l’errore in base all’esperienza è ciò che accomuna tutti gli algoritmi di machine learning, che quindi imparano in base a degli esempi (che formeranno la loro esperienza) a risolvere un compito specifico.
Naturalmente, nessuno – me incluso – si sogna di dire che una teorica rete neurale in grado di riconoscere se in un’immagine c’è un’automobile o meno sia intelligente quanto un essere umano. La nostra rete, però, non ha avuto bisogno di essere addestrata a capire come riconoscere un automobile, ma è stata in grado di inferire autonomamente le caratteristiche la rendono tale. Nessuno le ha insegnato come riconoscere una ruota, ma ha imparato autonomamente a riconoscere che un’automobile deve averne quattro. Come ha fatto? Con l’esperienza: le sono state presentate migliaia di immagini con e senza automobili, magari cercando di confonderla con immagini di furgoni, camion, biciclette o moto, e da sola ha stabilito quali sono le caratteristiche identificano un’automobile. Un processo che, essendo basato sull’esperienza, è indubbiamente – nell’opinione di chi scrive – sintomo di una qualche forma, anche solo basilare, di intelligenza.
Reti neurali
D’altra parte, lo stesso inventore della backpropagation, Geoffrey Hinton, ritiene che le reti neurali rappresentino un modello “intellettualmente insoddisfacente” della mente umana, ed io non sono nessuno per dissentire con lui. Abbiamo già costruito simulazioni con un numero di neuroni pari a quello del cervello umano, ma senza essere in grado di replicare le sue capacità; in fondo, come nota anche Quintarelli nel suo libro “Costruire il domani”, “anche certi tipi di delfini hanno una corteccia cerebrale munita del doppio dei neuroni di un uomo e il sistema nervoso degli elefanti ha addirittura il triplo dei neuroni di quello di un essere umano”, ma questo non li rende certo più intelligenti di noi.
Kaplan ha perfettamente ragione quando dice che gli algoritmi di IA moderni sono “lontani dall’essere senzienti”, poiché per loro stessa natura non sono progettati per esserlo, ma solo per imparare a risolvere un problema ben specifico. Se l’average Joe californiano o la casalinga di Voghera immaginano che l’IA sia ai livelli di quella immaginata da Asimov sbagliano; piuttosto, gli algoritmi moderni sono più simili a delle cavie da laboratorio addestrate a svolgere diligentemente uno e un solo compito. Questo, naturalmente, non vuol dire che siano intelligenti quanto un essere umano e nemmeno quanto un lombrico, ma sicuramente più di un essere inanimato. Infatti, se chiedete a un sasso la strada per la Silicon Valley non sarà in grado di rispondervi – a meno che non sia un sasso connesso al cloud, dove un algoritmo di machine learning tradurrà la vostra voce in comandi, usando la vostra e altre domande che altre persone fanno ad altri sassi per migliorare in continuazione e senza alcun intervento umano le sue abilità di sasso-navigatore.
LEGGI TUTTI I COMMENTI E LE RIFLESSIONI SU INTELLIGENZA ARTIFICIALE E AGENDA DIGITALE