l'approfondimento

Presto le macchine faranno tutto da sole: siamo davvero vicini alla singolarità tecnologica?

La possibilità futuristica che l’intelligenza artificiale possa diventare autonoma al punto da causare enormi danni all’umanità è la più radicale delle minacce, ma non è più tanto remota. In quest’ottica, quindi, diventa imperativo frenare gli sviluppi dell’IA, limitandone il potenziale sovversivo nei rapporti con l’uomo

Pubblicato il 26 Apr 2023

Mario De Caro

Università Roma Tre, Tufts University

nvidia ai

Sebbene nessuno possa seriamente dubitare che gli straordinari, e sempre più rapidi, progressi tecnologici apportino notevoli benefici alle nostre vite, altrettanto indiscutibile è che questi progressi generano nuove sfide e minacce serie, se non terribili.

Proviamo di seguito a trattare la più radicale di queste minacce: la possibilità futuristica, ma non molto remota, che l’intelligenza artificiale possa diventare autonoma al punto da causare enormi danni all’umanità, indipendentemente dalla volontà dei suoi progettisti.

Boston Dynamics Big Dog (new video March 2008)

Boston Dynamics Big Dog (new video March 2008)

Guarda questo video su YouTube

Le macchine diventeranno una minaccia?

L’avvicinarsi del momento in cui creature artificiali intelligenti e autoconsapevoli si mescoleranno a noi con intenzioni tutt’altro che pacifiche fa rabbrividire i lettori e gli spettatori di tutto il mondo: basti pensare alla ferocia distopica condivisa da HAL 9000, Terminator, i replicanti di Blade Runner, le macchine soggiogatrici di Matrix e la subdola capacità seduttiva di Ava in Ex Machina. In breve, le macchine potrebbero presto diventare una vera minaccia per noi. Oggi, infatti, questa possibilità è contemplata dai molti studiosi che discutono della cosiddetta “Singolarità”, il presunto momento futuro in cui lo sviluppo tecnologico diventerà incontrollabile e irreversibile: quando, insomma, l’intelligenza artificiale diventerà “Superintelligenza” e si renderà completamente autonoma dai suoi programmatori umani); e questo porterà cambiamenti radicali e imprevedibili all’intera civiltà come la conosciamo.

James Barratt (2015) descrive l’intelligenza artificiale come la nostra “Our Last Invention”, un’invenzione che causerà la fine dell’era umana. E già qualche anno fa, un teorico della singolarità, Ray Kurtzweil (2005), ha annunciato che si verificherà intorno al 2045. Infine, il più famoso dei Nostradamus della Singolarità, il celebre filosofo di Oxford Nick Bostrom, ha scritto che nelle nostre interazioni con l’intelligenza artificiale siamo “come bambini piccoli che giocano con una bomba” e che è assolutamente necessario porre ora vincoli e limiti alla crescita tecnologica, in modo da “aumentare la probabilità di un ‘risultato OK’, dove per risultato OK si intende qualsiasi risultato che eviti la catastrofe esistenziale” (Adams 2016). Secondo Bostrom, la minaccia delle macchine per la sopravvivenza dell’umanità è maggiore di quella rappresentata dal cambiamento climatico.

In quest’ottica, quindi, diventa imperativo frenare rapidamente gli sviluppi dell’intelligenza artificiale, limitandone il potenziale sovversivo nei rapporti con l’uomo. Certo, Bostrom pensa di porre dei vincoli legali, ma questo genera due problemi. In primo luogo, c’è sempre la possibilità che alcuni Paesi e individui possano sfuggire a queste norme: questo, però, è un problema di controllo di polizia e, sebbene molto complesso, non ci interessa particolarmente in questa sede. Il secondo problema è più interessante per noi: che tipo di interventi legislativi si possono mettere in atto per gli sviluppi dell’intelligenza artificiale in modo da indebolirne la pericolosità?

Singolarità tecnologica: quanto manca alla prima macchina ultra-intelligente? Gli scenari

Le leggi sulla robotica di Isaac Asimov

Qualche indicazione preliminare ci è stata data da Isaac Asimov, quando ha cercato di riflettere sui limiti da porre alle macchine del futuro affinché non si rivoltassero contro i loro creatori umani. Per questo, Asimov formulò le sue famose tre “Leggi della Robotica” (ancora oggi molto discusse nelle discussioni filosofiche su questo tema):

1. Prima legge. Un robot non può ferire un essere umano o, per inerzia, permettere che un essere umano venga danneggiato.

2. Seconda legge. Un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne nei casi in cui tali ordini siano in contrasto con la prima legge.

3. Terza legge. Un robot deve proteggere la propria esistenza, purché tale protezione non sia in conflitto con la Prima o la Seconda Legge.

In un secondo momento, Asimov si rese conto che si possono immaginare casi in cui, per il bene dell’umanità, un robot dovrebbe essere in grado di arrecare danno a un determinato essere umano (e in casi estremi, persino di ucciderlo). Immaginiamo il caso di un terrorista in procinto di compiere un enorme massacro: se un robot può fermarlo, deve farlo anche violando la prima legge della robotica. Per questo, Asimov aggiunge un’altra legge, più fondamentale delle altre, la Legge Zero:

Legge zero. Un robot non può ferire l’umanità o, con la sua inazione, permettere che l’umanità venga danneggiata.

In quest’ottica, Asimov riformula le altre tre leggi:

Prima legge*. Un robot non può danneggiare un essere umano, né può permettere che, a causa della propria inazione, un essere umano riceva un danno, purché ciò non contravvenga alla Legge Zero.

Seconda legge*. Un robot deve obbedire agli ordini impartiti dagli esseri umani, a condizione che tali ordini non contravvengano alla Legge Zero e alla Legge Uno.

Terza legge*. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contravvenga alla Legge Zero, alla Prima Legge e alla Seconda Legge.

Le macchine come agenti intenzionali

Le leggi di Asimov sono rivolte ai programmatori affinché non progettino macchine che le violino. Se fosse solo questo, però, la minaccia delle macchine non sarebbe molto diversa da quella delle armi di distruzione di massa, rispetto alle quali, appunto, gli organismi internazionali legiferano e le singole nazioni firmano trattati bilaterali con lo scopo di impedirne l’uso improprio da parte dell’uomo. Il progresso tecnologico prefigura anche un’altra minaccia, più grave: e in questo senso si pensa all’inquietudine suscitata da Hal 9000, Terminator & Co. Il timore, come detto, è che un giorno le macchine possano programmarsi da sole, rivoltandosi contro i loro creatori e tentando di sottometterli o, secondo i futurologi più catastrofisti, addirittura di sterminarli.

In questa visione futurologica, le macchine del futuro sono viste come agenti intenzionali in grado di scegliere di rivoltarsi contro chi le ha costruite. Tuttavia, non sembra molto plausibile che presto vengano costruite macchine dotate di libero arbitrio, intenzionalità e coscienza, cioè macchine che dovrebbero essere considerate persone a tutti gli effetti. Ciò non significa, tuttavia, che – anche senza essere persone – le macchine non possano trasformarsi in entità molto pericolose per noi.

Se le macchine si danno regole che noi non possiamo conoscere

Qui, in particolare, vorrei sottolineare un aspetto potenzialmente inquietante, proprio di alcune macchine (relativamente) intelligenti costruite negli ultimi anni. Da tempo, infatti, sappiamo che le macchine sono in grado di fornire prestazioni molto migliori delle nostre in diversi ambiti (si pensi ai sistemi esperti); inoltre, da diversi decenni sappiamo anche che, in base ai programmi con cui sono costruite, le macchine possono migliorare le loro prestazioni confrontandosi con l’esperienza. Oggi, però, siamo giunti alla fase successiva di questo processo che, a voler essere pessimisti, potrebbe addirittura delineare una terribile minaccia futura. Succede, infatti, che oggi esistono macchine che possono migliorarsi dandosi le regole per farlo e senza che noi possiamo capire quali siano queste regole: macchine che, insomma, possono progredire creativamente in direzioni per noi del tutto imprevedibili.

Un esempio chiarirà questo punto. Come è noto, dal 1996, quando il computer Deep Blue sconfisse il campione del mondo Garry Kasparov, esistono computer che giocano a scacchi meglio dell’uomo. Negli ultimi anni, tuttavia, il dominio delle macchine in questo campo è diventato quasi imbarazzante. Durante l’ultimo campionato del mondo, disputato nel 2018 da Magnus Carlsen e Fabiano Caruana, i Gran Maestri che commentavano le partite sono ricorsi ai computer – in particolare a Stockfish, l’allora campione del mondo di computer per gli scacchi – per giudicare se le mosse giocate dai contendenti fossero buone e chi fosse in vantaggio di volta in volta. I computer per gli scacchi utilizzati dai grandi maestri dell’epoca, tuttavia, appartenevano tutti alla vecchia generazione: erano stati cioè programmati con centinaia e centinaia di fondamenti di strategia e tattica, elaborati dai programmatori con l’aiuto dei principali giocatori di scacchi. Inoltre, questi computer avevano in memoria un’enorme quantità di partite giocate in passato e una straordinaria capacità di calcolo.

L’esempio di AlphaZero

Dopo il Campionato del mondo 2018, però, è successo qualcosa di nuovo e imprevedibile: Stockfish è stato sfidato, e smantellato, da un nuovo computer, AlphaZero, costruito su principi completamente diversi. I numeri della sfida tra le due macchine sono impressionanti: in una prima serie di 100 partite, AlphaZero ha vinto 28 volte e pareggiato 72 volte, senza mai perdere. In una seconda serie di 1.000 partite, AlphaZero ha vinto 155 volte, pareggiato 839 volte e perso solo 6 volte (0,6%, quindi). Il dominio di AlphaZero, quindi, era assolutamente indiscutibile. L’aspetto più interessante, tuttavia, è capire come ciò sia potuto accadere. Mentre Stockfish, il computer sconfitto, era infatti in grado di analizzare 60 milioni di posizioni al secondo, AlphaZero ne analizzava solo 60.000. In breve: AlphaZero ha analizzato un millesimo delle posizioni analizzate da Stockfish; eppure, pur avendo una frazione della forza computazionale del suo avversario, ha avuto la meglio. Dov’è allora la sua forza?

I programmatori di AlphaZero, guidati da David Silver, hanno spiegato in due articoli pubblicati sulle più prestigiose riviste scientifiche del mondo (Nature e Science), la forza di questa meravigliosa macchina. Il punto è che le hanno insegnato solo le regole di base degli scacchi, ma non le hanno fornito alcuna guida tattico-strategica. Piuttosto, i costruttori hanno fatto giocare ad AlphaZero milioni di partite contro se stesso: da queste partite, a seconda dei risultati, AlphaZero ha dedotto i principi tattico-strategici, in parte a noi sconosciuti, da seguire di volta in volta. In una parola, questa macchina ha imparato a giocare a scacchi da sola, per tentativi ed errori, e in questo modo è diventata il più forte giocatore di tutti i tempi.

Quando i migliori scacchisti umani hanno analizzato le partite di AlphaZero, hanno scoperto mosse ingegnose e a volte persino incomprensibili per noi umani: mosse che mettevano in discussione i principi fondamentali su cui l’uomo e gli altri computer hanno sempre impostato il loro modo di giocare (principi come quelli relativi all’importanza relativa dei pezzi o alla rilevanza della struttura pedonale). In breve: AlphaZero non solo è virtualmente imbattibile, ma gli umani non riescono nemmeno a capire come faccia a pensare così bene! E le sorprese non sono finite qui. Infatti, AlphaZero ha fatto a pezzi anche campioni e computer che giocano a go e shogi (scacchi giapponesi), giochi computazionalmente molto più complessi degli scacchi. Anche in questi casi, ad AlphaZero sono state fornite solo le regole di base: per il resto, ha imparato tutto da solo.

Nell’abstract del loro articolo pubblicato su Science, Silver et al. (2018) scrivono dopo il trionfo della loro macchina contro il campione mondiale di Go: “Il gioco degli scacchi è il campo più studiato nella storia dell’intelligenza artificiale. I migliori programmi si basano su una combinazione di strategie di ricerca, adattamenti specifici per il dominio e funzioni di valutazione artigianali, perfezionate da esperti umani nel corso di diversi decenni. AlphaGo Zero ha recentemente raggiunto prestazioni sovrumane nel gioco del Go grazie al rinforzo ottenuto giocando da solo. In questo articolo, generalizziamo questo approccio in un unico algoritmo AlphaZero, che può raggiungere prestazioni sovrumane in molti giochi in molti giochi intellettualmente impegnativi. Iniziando a giocare in modo casuale e senza avere alcuna conoscenza preliminare di questi giochi, se non delle loro regole di base, AlphaZero ha sconfitto i programmi campioni del mondo di scacchi, shogi (scacchi giapponesi) e Go£.

La quantità di allenamento richiesta dal sistema dipende dallo stile e dalla complessità del gioco: per gli scacchi ci sono volute 9 ore, per lo shogi 12 ore e per il Go 13 giorni. Con le parole di Sadler et al. (2019):”Negli scacchi ci sono 1047 posizioni possibili, un numero astronomico. Tuttavia, mentre altri programmi di scacchi tentano ancora di calcolare il maggior numero possibile di posizioni, utilizzando la loro forza bruta computazionale, AlphaZero auto-apprende utilizzando un albero di ricerca Monte Carlo, che analizza solo le posizioni più promettenti, che sono una piccola frazione delle posizioni analizzate dai computer tradizionali). Più precisamente, AlphaZero si limita ad analizzare esempi casuali dello spazio di ricerca e a valutare se portano a conseguenze positive: per certi versi, insomma, AlphaZero assomiglia più ai computer quantistici che ai computer tradizionali”.

E rispetto alla creatività di Alpha Zero rispetto alla bruta forza computazionale dei computer scacchistici tradizionali, l’articolo continua: “I motori di ricerca tradizionali sono eccezionalmente forti nel commettere pochi errori evidenti, ma possono andare fuori strada quando si trovano di fronte a posizioni che non hanno soluzioni concrete e calcolabili. È proprio in queste posizioni, dove sono necessarie “intuizione”, “intuizione” e “intuizione”, che AlphaZero dà il meglio di sé. (Silver et. al. 2018; si veda anche Sadler & Regan, 2019)”.

Conclusioni

L’esperienza di AlphaZero sembra suggerire, in breve, che ci stiamo avvicinando al momento in cui le macchine diventeranno molto più brave di noi nell’eseguire compiti complessi, ma senza la necessità di aiutarci a capire come eseguirli: saranno, infatti, in grado di fare tutto da sole. È lecito chiedersi, quindi, se noi umani saremo sempre in grado di impedire (magari utilizzando leggi ispirate a quelle di Asimov) che questa nuova e sorprendente capacità delle macchine sfugga completamente al nostro controllo, come temono Bostrom e altri futurologi. La risposta a questa domanda non la conosciamo ancora, ma è auspicabile che sia positiva.

Bibliografia

Adams, T. (2016), “Artificial intelligence: ‘We’re like children playing with a bomb”, The Observer, https://www.theguardian.com/technology/2016/jun/12/nick-bostrom-artificial-intelligence-machine

Barrat, J. (2015), Our Final Invention: Artificial Intelligence and the End of the Human Era, Thomas Dunne Books, New York.

Kurtzweil, R. (2005), The Singularity Is Near: When Humans Transcend Biology, Viking, New York.

Sadler, M & Regan, N. (2019), Game Changer AlphaZero’s Groundbreaking Chess. Strategies and the Promise of AI, New in Chess, Alkmaar.

Silver M. et al. (2018), “AlphaZero: Shedding new light on chess, shogi, and go”, https://deepmind.com/blog/article/alphazero-shedding-new-light-grand-games-chess-shogi-and-go.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3