l’approfondimento

Agi (intelligenza artificiale generale): da dove arriva e dove va



Indirizzo copiato

L’intelligenza artificiale dalle idee di Turing fino ai recenti progressi in reti neurali e modelli generativi: il concetto di singolarità, il ruolo di OpenAI e le opinioni divergenti sulla sicurezza e l’etica. Una riflessione sul passato e sull’impatto futuro dell’AI generale (AGI) e sulla necessità di gestire i rischi associati

Pubblicato il 28 feb 2024

Vincenzo Ambriola

Università di Pisa



IA intelligenza artificiale ai generativa e copyright

Un viaggio attraverso l’evoluzione dell‘intelligenza artificiale generale (AGI): dalle sue radici storiche, gli sviluppi tecnologici più recenti e le principali questioni etiche e di sicurezza. Attraverso una panoramica dei contributi di pionieri come Turing e delle innovazioni portate da entità come OpenAI, proviamo a riflettere sulle potenziali direzioni future dell’AGI e sull’importanza di affrontare proattivamente i rischi ad essa associati.

Da macchine pensanti a macchine intelligenti

Non si può parlare di intelligenza artificiale generale, anche conosciuta come AGI, senza ricordare le parole di Alan M. Turing, quando propose il famoso test per riconoscere in una macchina la capacità di pensiero.

Dopo una breve storia dell’intelligenza artificiale, passando in rassegna i risultati ottenuti mediante l’uso delle reti neurali, si fornisce una definizione della sua forma più potente, quella generale. Ancora una volta è Turing a guidarci nel passaggio, intrigante, da macchine pensanti a macchine intelligenti che apprendono e ragionano. Strettamente legato all’intelligenza artificiale generale è il concetto di singolarità, anticipato da John von Neumann e ripreso poi da Irving J. Good e, più recentemente, da Raymond Kurzweil. Entra in campo la bomba atomica, riportando l’attualità delle grandi discussioni che questa arma devastante ha avuto nel dibattito etico sulla tecnologia.

Parlando di tempi più recenti, e degli straordinari risultati ottenuti dall’intelligenza artificiale generativa, è utile ripercorrere la storia di OpenAI e del suo creatore Sam Altman, per capire lo stretto legame tra una visione profetica, la singolarità, e la necessità o la convenienza di ottenere profitti economici e potere strategico. Infine, per dare spazio al dibattito corrente, si confronta la posizione preoccupata di Mario De Caro con quella, a suo stesso dire, agnostica e diffidente di Anil Seth. Le conclusioni, brevi e aperte a ogni futuro, chiudono questo viaggio nel tempo.

Intelligenza artificiale, una definizione

Secondo la definizione di Stuart J. Russell e Peter Norvig, l’intelligenza artificiale è «lo studio di agenti che ricevono stimoli dall’ambiente ed effettuano azioni». Storicamente, l’intelligenza artificiale è stata vista da due diverse prospettive: corrispondenza alle prestazioni umane, razionalità nell’operare correttamente. Un altro modo di distinguere l’intelligenza è vederla come una proprietà interna dei pensieri mentali e di ragionamento oppure come una caratteristica esterna comportamentale. Nel dibattito attuale, quest’ultima considerazione mette a confronto la visione ontologica con quella epistemologica.

Già nel 1950, Turing scrisse un articolo in cui si chiedeva se le macchine potessero pensare, anticipando di qualche anno la prima definizione di intelligenza artificiale data nel convegno dell’estate del 1956 tenuto al Dartmouth College, con la partecipazione di John McCarthy, Warren McCulloch, Marvin Minsky, Claude Shannon e Nathaniel Rochester. Prima di rispondere a questa semplice domanda, Turing fece un passo indietro e si domandò quale fosse il significato di “macchina” e di “pensiero”, invitando il lettore a non usare il normale significato dei due termini, ritenendo questa attitudine “pericolosa”, perché avrebbe avuto lo stesso valore scientifico attribuibile a un sondaggio effettuato su base statistica. Come ben sappiamo, Turing riformulò il problema iniziale in termini di un gioco molto in voga a quei tempi, il “gioco dell’imitazione”. Senza entrare nel merito dell’esperimento mentale proposto da Turing, ci interessa evidenziare la natura prettamente fenomenologica del test di Turing, che non vuole dimostrare una proprietà intrinseca delle macchine ma la capacità di comportarsi come un umano che, senza ombra di dubbio, è un’entità pensante.

Gli spunti contenuti dell’articolo di Turing sono tantissimi e meritano di essere studiati e analizzati non solo da un punto di vista storico ma anche concettuale. Ad esempio, il capitolo 7 è dedicato interamente alle “macchine pensanti” (Learning Machines nel testo originale). Dopo aver affermato di non avere «argomenti molto convincenti in grado di supportare il mio punto di vista in maniera positiva» Turing propose la realizzazione di una macchina pensante mediante un processo di apprendimento, simile a quello che gli esseri umani seguono a partire dalla nascita, quando sono esposti a stimoli sensoriali e intellettuali e imparano a conoscere il mondo. Si ritrovano in questa idea i metodi alla base dell’apprendimento automatico (Machine Learning, in inglese), dove il rovesciamento dei due termini rivela un profondo cambiamento di prospettiva. Se Turing propone di istruire le macchine, affinché diventino pensanti, l’apprendimento automatico si pone l’obiettivo, più limitato e prosaico, di automatizzare l’apprendimento, senza alcuna pretesa di cambiare la natura dell’entità computazionale coinvolta in questo processo. Il progresso tecnologico degli ultimi anni ha fatto evolvere le tecniche di apprendimento automatico fino a giungere sia ai risultati di AlphaZero nel gioco degli scacchi e del go, che a quelli, straordinari e ancora ampiamente incompresi, dei Large Language Model. Sempre tornando al 1950, è doveroso riportare le parole di Turing quando cercò di individuare le migliori attività intellettuali nelle quali le macchine sarebbero entrate in competizione con gli umani. La sua scelta, con la debita premessa che si trattò di una decisione difficile da prendere, fu che «molte persone avrebbero pensato che un’attività molto astratta, come il gioco degli scacchi, sarebbe stata la migliore». Ma Turing non si fermò qua, ritenendo anche che la macchina dovesse «essere dotata dei migliori organi sensoriali possibili e poi addestrata a capire e parlare la lingua inglese», anticipando la robotica e i modelli fondazionali. Nel suo ottimismo scettico, Turing concluse affermando che «possiamo vedere solo ciò che è davanti a noi, ma ci sono tante cose che dobbiamo necessariamente fare».

Un excursus nell’Intelligenza artificiale generale

La storia dell’intelligenza artificiale è molto lunga e articolata. Michael Haenlein e Andreas Kaplan l’hanno raccontata in termini di stagioni, inverni e primavere, spiegandone i passaggi cruciali fino al 2000. Enrico Francesconi ha aggiunto a questa narrazione la stagione attuale, chiamandola l’estate dell’intelligenza artificiale e della legge, per i grandi progressi ottenuti negli ultimi anni. Ciò che colpisce è la resilienza di questa disciplina che, nonostante gli insuccessi dovuti a insufficienti capacità di calcolo e di memoria, riesce sempre a ripartire sulla base di nuove scoperte ma anche sull’approfondimento di tecniche ritenute inadatte.

Le reti neurali artificiali

Il caso più eclatante è quello delle reti neurali artificiali. Definite nel 1943 da Warren McCulloch e Walter Pitts, furono considerate come il primo modello formale (matematico) in grado di spiegare operativamente il funzionamento del cervello umano, composto da una rete formata da un enorme numero di neuroni collegati tra loro da un ancora più grande numero di sinapsi. Successivamente, gli esperimenti effettuati da Frank Rosenblatt realizzati mediante il Perceptron, un programma software in grado di simulare queste reti, ne hanno dimostrato la capacità di apprendere funzioni specifiche, senza dover programmare specificamente i singoli neuroni. Il grande salto qualitativo è avvenuto negli ultimi anni, quando la potenza di calcolo disponibile ha consentito la realizzazione di reti neurali caratterizzate da miliardi di parametri (un parametro può essere considerato come una sinapsi che collega due neuroni). A titolo di esempio, ChatGPT 3.5 utilizza 175 miliardi di parametri.

Questa nuova estate dell’intelligenza artificiale, caratterizzata delle inaspettate capacità dei modelli fondazionali basati su grandi reti neurali addestrate con enormi quantità di dati, ha riaperto il dibattito sull’intelligenza artificiale generale, un dibattito che sembrava poggiarsi esclusivamente su elementi emozionali, filosofici e, in alcuni casi, esoterici. Prima di dare una definizione di questa forma di intelligenza dobbiamo prendere in considerazione alcuni passaggi storici.

IA debole e IA forte

Per convenzione, l’intelligenza artificiale è chiamata “debole” quando risolve una particolare classe di problemi e non possiede abilità cognitive di carattere generale. Viene chiamata “forte” quando invece è in grado di esprimere capacità senzienti o consapevoli. Tornando a Turing, una macchina dotata di una forte intelligenza sarebbe considerata a pieno titolo capace di pensare. Questa visione di onnipotenza viene confermata da un altro pioniere del settore, Herbert A. Simon quando nel 1965 scrisse che «le macchine saranno capaci, entro vent’anni, di fare tutto ciò che un umano può fare» (citazione riportata da Crevier). In letteratura compaiono altre connotazioni di intelligenza artificiale forte, come “Human-level AI” o super-intelligenza, quando se ne vogliono evidenziare le capacità sovrumane.

Il confronto con l’intelligenza umana

Il confronto con l’intelligenza umana è sempre stato drammatico e coinvolgente. Già Turing ritenne che la capacità di calcolo dei calcolatori, a quel tempo estremamente lenti rispetto a quelli attuali, avrebbe consentito lo svolgimento di compiti irraggiungibili agli umani. Visse infatti l’esperienza di Colossus, uno dei primi calcolatori elettronici in grado di decifrare i codici usati dai nazisti per proteggere le comunicazioni da eventuali intercettazioni. Realizzato sulla base del modello matematico sviluppato dallo stesso Turing, Colossus fu in grado di decifrare in un solo giorno centinaia di messaggi segreti mediante calcoli che avrebbero richiesto una quantità di tempo molto maggiore se svolti da esseri umani. Questa disparità di potenza computazionale stupì così tanto gli scienziati, ma anche la pubblica opinione, che per un lungo periodo a seguire i calcolatori sono stati anche chiamati “cervelli elettronici”.

Le numerose definizioni di intelligenza artificiale generale hanno tutte in comune la capacità di imparare a svolgere una qualsiasi attività intellettuale umana e animale. Ciò significa costruire una “macchina”, nel senso originalmente proposto da Turing, che risulterebbe indistinguibile da un umano (o da un animale, per non escludere a priori comportamenti intelligenti che gli umani non hanno). Si tratta di una macchina molto complessa, che non si limita a svolgere in maniera sovrumana alcune attività intellettuali, ma è capace di esibire un comportamento che possiamo chiamare universale.

L’ambizione degli scienziati di affrontare un ambito scientifico in maniera globale, minimizzando il numero di assiomi e leggi che lo spiegano e che ne prevedono con sufficiente precisione i fenomeni, ha permesso di capire a fondo le basi teoriche della matematica, della fisica, della chimica e di tante altre discipline. Anche l’informatica è stata oggetto di studi fondazionali che hanno messo in luce i profondi collegamenti con la matematica, la logica e, più recentemente, la fisica. Pochi anni dopo la pubblicazione dei due teoremi di incompletezza di Kurt Gödel, Turing fornì una descrizione matematica (e, quindi astratta e non dipendente da alcuna tecnologia) di un dispositivo in grado di effettuare qualsiasi calcolo definibile algoritmicamente. Le sue creature, chiamate Macchine di Turing, sono così formalmente potenti che è possibile costruirne una “universale”, in grado di simulare tutte le altre.

Questa idea di universalità permeò i ragionamenti di Turing, facendogli pensare che la realizzazione di una macchina pensante altro non sarebbe stato che un sistematico e paziente lavoro di programmazione. È interessante riprendere il suo articolo del 1950, quando affermò che «l’analogia della ‘pelle di una cipolla’ può anche essere utile» quando si analizzano le funzioni della mente e si ritrovano alcune operazioni che possono essere spiegate in termini puramente meccanici. Secondo questa analogia, osservando dall’esterno la mente è possibile riconoscere le funzioni meramente meccaniche che, come lo strato esterno di una cipolla, possono essere rimosse per osservare quelle più interne in un processo iterativo che può concludersi in due modi concettualmente diversi: arrivare a ciò che Turing chiama “la vera mente”, oppure scoprire che l’ultimo strato della cipolla non ha più nulla al suo interno. Nel primo caso si avrebbe la prova che la mente non è definibile algoritmicamente e che, quindi, non può essere espressa da una funzione calcolabile. Nel secondo caso, si dovrebbe ammettere che «l’intera mente è meccanica». Tornando all’intelligenza artificiale generale, non si può ignorare il ragionamento di Turing e riportare la realizzazione di questa forma forte di intelligenza artificiale alla scoperta e alla fedele riproduzione di “tutti” i meccanismi che operano in una mente umana.

Il concetto di singolarità tecnologica

Irving John Good, matematico e crittografo britannico, lavorò con Turing a Bletchley Park, nel già citato progetto per la decrittazione dei messaggi scambiati dai nazisti. Alla fine della Seconda guerra mondiale, la carriera dei due scienziati andò avanti per qualche anno quando furono entrambi chiamati da Max Newman alla Manchester University. L’aneddotica sui rapporti tra Turing e Good è vasta e a tratti colorita. Possiamo immaginarli mentre parlano di macchine universali, macchine che pensano, teoria della calcolabilità e tutto ciò che in quegli anni frenetici e irripetibili tenne impegnate le menti degli scienziati, sconvolti soprattutto dalle ignote e paurose prospettive dell’energia atomica e degli ordigni capaci di sprigionare energie distruttive prima di allora inimmaginabili. Forse nelle loro discussioni, le paure atomiche si mescolavano e si confondevano con quelle computazionali.

Nel 1966 Good pubblicò un articolo in cui parlò esplicitamente di macchine ultra-intelligenti. In poche ma incisive frasi fece una profezia che per molti è successivamente diventata tema di ricerca. Riprendiamole per ricostruire il suo ragionamento. Per prima cosa Good definì una macchina ultra-intelligente come «una macchina che può di gran lunga superare tutte le attività intellettuali di qualsiasi essere umano dotato di una qualsiasi intelligenza». La tripla precisazione rende questa macchina straordinariamente potente. Non solo è capace di svolgere tutte le attività intellettuali umane, ma lo fa superando in potenza tutti gli esseri umani, indipendentemente dal loro quoziente intellettivo.

Non è più sufficiente essere dei geni, come Albert Einstein o Enrico Fermi, per rappresentare un ostacolo insormontabile, una macchina ultra-intelligente è superiore alla genialità umana. Sulla base di questa premessa Good dedusse che «poiché il progetto delle macchine è una di queste attività intellettuali, una macchina ultra-intelligente potrebbe progettare macchine ancora migliori».

Dobbiamo ammettere che il passaggio logico è teoricamente ammissibile ma che richiederebbe una potenza computazionale così grande da renderlo non realizzabile nella pratica. Ma Good andò oltre, prevedendo addirittura una «esplosione di intelligenza di tale forza da lasciare molto indietro l’intelligenza umana». Come non rivedere in questo scenario apocalittico le immagini delle bombe atomiche che esplosero con così tanta forza da distruggere due inermi città. E infatti la previsione finale fu che «la prima macchina ultra-intelligente sarà l’ultima invenzione che l’uomo avrà mai bisogno di fare». La parte finale del ragionamento di Good suona veramente ironica quando si augurò che tutto ciò accadesse «a condizione che la macchina sia abbastanza docile da dirci come tenerla sotto controllo».

L’istante temporale in cui la tragedia tecnologica ipotizzata da Good avviene è chiamato “singolarità tecnologica”, un istante dopo il quale la crescita della tecnologia diventa incontrollabile e irreversibile, con conseguenze imprevedibili (e forse funeste) per l’umanità. Della gravità di questo istante ne parlò già von Neumann, in una conversazione riportata da Stanislaw Ulam, il padre della bomba atomica ad idrogeno. Von Neumann ritenne che il progresso tecnologico stesse accelerando così rapidamente da avvicinarsi a una qualche “singolarità” nella storia della razza umana, un evento dopo il quale un radicale cambiamento sarebbe diventato inevitabile. Pur riconoscendo che «le tecnologie sono sempre costruttive e benefiche» ritenne anche che «le loro conseguenze tendono a incrementare l‘instabilità», una preoccupazione dettata negli anni Cinquanta dalle tensioni tra le superpotenze dovute sia alla corsa agli armamenti nucleari che alla “cortina di ferro” che divise l’Occidente dall’Unione Sovietica. La recente, forte accelerazione dell’intelligenza artificiale generativa ripropone adesso scenari già visti.

Il tema della singolarità nel contesto dell’intelligenza artificiale

Dopo le premonizioni e le profezie di von Neumann e Good fu Raymond Kurzweil, nel 2005, a riprendere il tema della singolarità e ad analizzarla nel contesto dell’intelligenza artificiale. Nel primo capitolo del suo libro più conosciuto, Kurzweil elencò circa 40 princìpi che saranno alla base delle sue argomentazioni. Molti di essi sono previsioni tecnologiche che non si sono avverate nelle previste scale temporali: (2025) «avremo una dettagliata comprensione di come funzionano tutte le regioni del cervello umano», (2010) «i supercalcolatori emuleranno l’intelligenza umana», (2020) «i personal computer emuleranno l’intelligenza umana», (2025) «avremo concreti modelli software dell’intelligenza umana». Alcune, invece, si sono avverate prima di quanto previsto: (2030) «i computer supereranno il test di Turing». Si fa fatica a separare, con evidenze fattuali e non con semplici ipotesi e congetture, i princìpi privi di esplicite indicazioni temporali, ma che poi si sono avverati, dagli altri che Kurzweil collocò in un preciso istante del futuro prossimo. Ad esempio, mentre adesso è ragionevolmente lontano il giorno in cui «le macchine saranno capaci, come gli umani, di progettare e ingegnerizzare le tecnologie, e potranno accedere alla loro documentazione progettuale per manipolarla ed evolverla», non ci sono dubbi che «le macchine sono in grado di imparare a svolgere un’attività per ripeterla ad altissima velocità, con ottimale accuratezza, senza stancarsi». Nonostante questo, Kurzweil ha avuto il merito di analizzare con grande lucidità ed evidenza scientifica il rapidissimo progresso tecnologico in settori in cui l’intelligenza artificiale stava svolgendo un ruolo importante e strategico, anticipando di due decadi il grande salto provocato dai modelli fondazionali.

L’arrivo dirompente di OpenAI

Fondata nel 2015 da Sam Altman ed Elon Musk, OpenAI era originariamente una società basata su un’attività di ricerca puramente no profit, con la missione di costruire un’intelligenza artificiale generale. Altman credette, e afferma di credere ancora in questa idea, pensando che solo un’azienda no profit sarebbe in grado di realizzarla, perché le altre concentrerebbero i loro sforzi esclusivamente per fare profitti. Non solo, anche se ci riuscissero non potrebbero controllarne gli effetti sull’umanità. Di questa idea era anche Musk, che in numerose discussioni aveva appoggiato le posizioni di Altman. Per completezza è necessario aggiungere che l’idea di perseguire l’intelligenza artificiale generale per via “aziendale” fu all’origine della nascita di DeepMind, una società fondata nel 2010 da Shane Legg, Demis Hassabis e Mustafa Suleyman e acquisita nel 2014 da Google.

Gli originari finanziatori di OpenAI furono Musk, Peter Thiel, Jessica Livingston, Amazon Services e Y Combinator (l’incubatore di start up). Nel dicembre 2015, dopo aver reclutato i migliori talenti che ne condividevano la missione, OpenAI entrò in una fase di ricerca ad ampio spettro che non riuscì a farla progredire verso l’intelligenza artificiale generale. I primi risultati degni di nota arrivarono dal lavoro di Alec Radford, che riuscì a costruire un sistema in grado di dialogare, istruito con i commenti del codice software di Reddit e le recensioni che i consumatori esprimono sui prodotti venduti da Amazon. Ma fu subito dopo l’attestarsi delle tecniche basate su reti neurali con meccanismi di attenzione, definite nel 2017 in un articolo pubblicato da ricercatori di Google e dell’Università di Toronto, che OpenAI ottenne risultati inattesi e sconvolgenti. Sotto la guida di Ilya Sutskever furono realizzate le prime versioni di ChatGPT che esibivano comportamenti emergenti non programmati esplicitamente.

In quel periodo Altman iniziò a credere di poter realizzare l’intelligenza artificiale generale e a preoccuparsi dell’impatto sull’umanità. All’inizio del 2018, Musk espresse le sue preoccupazioni sulla sicurezza, affermando che era molto più di una priorità. Per questo, si offrì di acquistare OpenAI. Altman e gli altri soci si opposero e Musk reagì violentemente ritirandosi e lasciando OpenAI praticamente senza risorse finanziarie per andare avanti. Nel 2019 tutto cambiò.

OpenAi, da non profit a for profit (e ritorno?)

Venne creata una nuova società OpenAI for profit, controllata dal consiglio di amministrazione della vecchia società no profit, per garantire il raggiungimento della missione originale. Subito dopo, Microsoft entrò nel capitale sociale della nuova società, investendo 13 miliardi di dollari e fornendo il supporto hardware e il tempo di calcolo per lo sviluppo delle successive versioni di ChatGPT.

Quando fu creata la società for profit, fu stabilito che sarebbe ritornata a essere no profit a due condizioni, non mutuamente esclusive: il raggiungimento della sua missione oppure un valore societario pari a una cifra enorme che qualcuno ipotizza essere un trilione di dollari. Non solo, nel momento della singolarità, l’accordo prevede che tutti i contratti in essere firmati da OpenAI saranno automaticamente invalidati, sulla presunzione che, dopo la singolarità, il denaro non avrà più alcun senso o valore. Molti hanno fatto notare che la prima condizione si basa su un evento non ben definito, mentre la seconda è facilmente verificabile. Altman ha risposto dicendo che soddisfare la seconda condizione implica soddisfare la prima.

Ma l’intelligenza artificiale generale non è stata ancora realizzata

Un anno dopo il rilascio di ChatGPT 3.5 si può tranquillamente affermare che l’intelligenza artificiale generale non è stata realizzata e che, anzi, questo obiettivo appare ancora lontano. I modelli fondazionali esibiscono comportamenti sorprendenti ma, per alcuni, sono solo dei “pappagalli stocastici” in grado di generare sequenze di testo basate su un processo di apprendimento costoso, complesso e oscuro. Mancano a questi sistemi la capacità di ragionamento logico e di rispetto e conoscenza del senso comune che rende possibile l’interazione tra esseri umani. Non sappiamo se Altman abbia abbandonato i suoi ideali, ma molti altri stanno costruendo intelligenze artificiali orientate al profitto e al potere. Per il momento le previsioni di Kurzweil non si sono avverate ma aleggiano cupamente sull’umanità.

La storia di OpenAI non termina qui. Il 17 novembre 2023 il consiglio di amministrazione della società no profit ha licenziato Altman, accusandolo di non essere stato costantemente sincero nelle sue comunicazioni con il consiglio, ostacolando la sua capacità di esercitare le proprie responsabilità. Questa decisione ha dato spazio a varie ipotesi, tra cui quella secondo cui Altman stesse dedicando troppo tempo a progetti collaterali o fosse troppo deferente nei confronti di Microsoft. Non solo, c’è stato anche chi ha messo in circolazione alcune teorie cospirative, come l’idea che OpenAI avesse creato l’intelligenza generale artificiale e che il consiglio avesse bloccato le attività di OpenAI su suggerimento di Ilya Sutskever. Il seguito della vicenda è noto: dopo una settimana Altman è rientrato in OpenAi nella sua vecchia carica e i membri del consiglio di amministrazione si sono dimessi per essere sostituiti da persone più allineate al nuovo corso, fortemente influenzato dalla Microsoft.

Le opinioni contrastanti sull’impatto dell’IA

«Quando il gioco si fa duro, i duri cominciano a giocare», espressione cult di fine anni Settanta che ci arriva da John Belushi in “Animal house”. Un altro modo di affrontare il gioco duro è proibirlo per qualche tempo, mettendo a cuccia i “duri” affinché non possano fare danni. Si tratta di una situazione ben nota, che von Neumann affrontò chiedendosi esplicitamente cosa fare. La sua posizione è incredibilmente moderna: «una tecnologia che ha creato pericoli e instabilità può essere utilmente usata per risolverli». Non solo, ma all’aumentare dell’utilità di una specifica tecnologia è possibile ipotizzare che i suoi effetti saranno ancora più destabilizzanti. La potenza di una tecnologia è pertanto ambivalente e il suo pericolo intrinseco. Per questo, von Neumann fu risoluto quando escluse quella che chiamò “pseudosoluzione” e, cioè, inibire, ostacolare o proibire a priori una tecnologia che appare pericolosa. Non è possibile, infatti, agire su una specifica tecnologia senza toccarne altre, non è possibile «separare i leoni dagli agnelli».

In un articolo apparso recentemente su questa rivista, Mario De Caro affronta quella che ritiene essere la più radicale minaccia tecnologica «la possibilità futuristica, ma non molto remota, che l’intelligenza artificiale possa diventare autonoma al punto da causare enormi danni all’umanità, indipendentemente dalla volontà dei suoi progettisti». Riprende i temi qui trattati sull’intelligenza artificiale generale, la singolarità, l’ultra-intelligenza. Cita ciò che il filosofo Nick Bostrom ha scritto sull’interazione dell’uomo con l’intelligenza artificiale: «siamo come bambini piccoli che giocano con una bomba», condividendo la posizione di porre vincoli e limiti alla crescita tecnologica. Non sorprende il riferimento alla bomba che, senza ombra di dubbio, è quella atomica come anticipato da von Neumann. Sulla linea indicata da Kurzweil, De Caro riprende il tema delle capacità sovrumane delle macchine e, soprattutto, il timore che «un giorno le macchine possano programmarsi da sole, rivoltandosi contro i loro creatori e tentando di sottometterli o, secondo i futurologi più catastrofisti, addirittura di sterminarli». Un timore che al momento non appare tecnologicamente plausibile, almeno nel breve periodo, in quanto richiede che le macchine siano «dotate di libero arbitrio, intenzionalità e coscienza, cioè macchine che dovrebbero essere considerate persone a tutti gli effetti».

L’assenza di coscienza, però, non rende le macchine innocue perché sono già in grado di migliorare autonomamente il loro comportamento. L’esempio della supremazia nel gioco degli scacchi e del go per De Caro è significativo per dimostrare in maniera concreta questa capacità. In chiusura del suo interessante articolo, De Caro si chiede «se noi umani saremo sempre in grado di impedire (magari utilizzando leggi ispirate a quelle di Asimov) che questa nuova e sorprendente capacità delle macchine sfugga completamente al nostro controllo, come temono Bostrom e altri futurologi. La risposta a questa domanda non la conosciamo ancora, ma è auspicabile che sia positiva».

Di diverso avviso è Anil Seth, un neuroscienziato britannico che si occupa della coscienza negli organismi viventi e in quelli artificiali. Seth separa nettamente intelligenza e coscienza, ritenendo che la prima sia posseduta dagli umani ma anche da altre creature viventi e che possa manifestarsi nelle macchine. Esprime il suo scetticismo nei confronti dell’intelligenza artificiale perché crede che le macchine non abbiano ancora raggiunto dei livelli di raffinatezza da poterle considerare intelligenti. Per quanto riguarda la coscienza, Seth si dichiara un diffidente funzionalista agnostico. L’intelligenza può aumentare a dismisura senza che ciò produca automaticamente l’insorgenza della coscienza.

L’attenzione di Seth per la coscienza è fondamentale per comprendere la sua posizione verso l’intelligenza artificiale generale. Per raggiungere livelli paragonabili a quelli umani, Seth ritiene che ci sia l’implicita assunzione che le macchine diventino anche coscienti e, quindi, possano orientare il loro sviluppo esponenziale verso obiettivi incompatibili con la sopravvivenza dell’umanità. Ma questa assunzione è ritenuta errata perché basata su un «insieme di atre preoccupazioni che hanno conferito alla prospettiva della coscienza artificiale un’urgenza e una patina apocalittica che davvero non merita». Relativamente alla crescita esponenziale di alcuni fenomeni, come quelli elencati da Kurzweil, Seth fa notare che «il problema delle curve esponenziali … è che ovunque ci si trovi su di esse, tutto ciò che sta davanti appare impossibilmente ripido e quanto sta dietro appare irrilevantemente piatto». In pratica, l’osservazione dell’andamento dei fenomeni non è in grado di darci un’indicazione di ciò che accadrà nel prossimo futuro ma solo una comprensione di ciò che è accaduto nel passato. Un atteggiamento che tutti coloro che investono in borsa conoscono benissimo.

Conclusioni

Leggere il futuro è una qualità che nel mondo antico era attribuita agli oracoli, intermediari dispettosamente scelti dagli dèi. Gli oracoli, però, non facevano previsioni precise e puntali, ma preferivano esprimersi in maniera allusiva, ellittica, in modo da essere difficilmente accusabili di sbagliare. La versione moderna degli oracoli è più raffinata e utilizza tecniche e narrazioni molto efficaci. Spesso, la previsione è inquadrata in un contesto che prevede una qualche forma di complotto, per cui ogni tentativo di confutarla automaticamente la rinforza. Non si vuole affermare che la previsione della singolarità, causata dalla realizzazione dell’intelligenza artificiale generale, sia basata sul desiderio di dominio di un gruppo organizzato di persone. Questo gruppo sarebbe così ampio che se ne conoscerebbero i membri, le finalità e le risorse utilizzate. Piuttosto è più ragionevole pensare che lo sviluppo dell’intelligenza artificiale produrrà grandi cambiamenti in tutti quei campi in cui le attività sono prevalentemente intellettuali, mettendo in discussione quella supremazia che finora è stata propria degli umani.

Anziché preoccuparci dell’arrivo della singolarità provocata dall’intelligenza artificiale generale è giunto il momento di riconsiderare il dramma collettivo causato dalla detonazione di due bombe atomiche e dalla successiva corsa agli armamenti nucleari. La “prima” singolarità accadde infatti alle 8:15 del 6 agosto 1945, quando gli Stati Uniti sganciarono Little Boy su Hiroshima, e tre giorni dopo, quando Fat Man distrusse Nagasaki. Il numero delle vittime, stimato tra 150 000 e 220 000, fu enorme rispetto alle ragioni che la causarono. Nell’attesa della “prossima” singolarità dobbiamo agire con anticipo e determinazione, individuandone i rischi e i pericoli, affinché non sia funesta come la prima.

Ringraziamenti

L’autore desidera riconoscere il supporto del progetto Europeo EIC Pathfinder EMERGE (GA N. 101070918).

Bibliografia

Bender, E.M., Gebru, T., McMillan-Major, A. and Shmitchell, S. (2021), On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜, FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610–623.

Bostrom, N. (2014), Superintelligence: Paths, Dangers, Strategies, Oxford University Press. Versione italiana (2018), Superintelligenza. Tendenze, pericoli, strategie, Bollati Boringhieri, Torino.

Crevier, D. (1993), AI: The Tumultuous Search for Artificial Intelligence, BasicBooks, New York.

De Caro, M. (2023), Presto le macchine faranno tutto da sole: siamo davvero vicini alla singolarità tecnologica? Quaderni di Agendadigitale.eu, Digital360, Milano.

Francesconi, E. (2022), The Winter, the Summer and the Summer Dream of Artificial Intelligence and Law, Presidential address to the 18th International Conference on Artificial Intelligence and Law.

Good, I.J. (1966), Speculations Concerning the First Ultraintelligent Machine, Advances in Computers, Elsevier, Volume 6, 31-88.

Kurzweil, R. (2005), The Singularity Is Near: When Humans Transcend Biology, Viking, New York. Versione italiana (2008), La singolarità è vicina, Apogeo Education, Milano.

Haenlein, M. and Kaplan, A. (2019), A Brief History of Artificial Intelligence: On the Past, Present, and Future of Artificial Intelligence, California Management Review, Volume 61, Issue 4, August 2019, 5-14.

McCarthy, J., Minsky, M., Rochester, N. and Shannon, C. (1955), A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence.

McCulloch, W. and Pitts, W. (1943), A Logical Calculus of Ideas Immanent in Nervous Activity, Bulletin of Mathematical Biophysics. 5 (4): 115–133.

Rosenblatt, F. (1958), The perceptron: A Probabilistic Model for Information Storage and Organization in the Brain, Psychological Review, 65 (6): 386–408.

Russell, S.J. and Norvig, P. (2022), Artificial Intelligence: A Modern Approach, Pearson, Harlow. Versione italiana (2022), Intelligenza artificiale: un approccio moderno, Pearson, Milano.

Sadler, M. and Regan, N. (2019), Game Changer AlphaZero’s Groundbreaking Chess. Strategies and the Promise of AI, New in Chess, Alkmaar.

Seth, A. (2021), Being You: A New Science of Consciousness, Dutton Books, London. Versione italiana (2023), Come il cervello crea la nostra coscienza, Raffaello Cortina Editore, Milano.

Turing, A.M. (1936), On Computable Numbers, with an Application to the Entscheidungsproblem, Proceedings of the London Mathematical Society.

Turing, A.M. (1950), Computing Machinery and Intelligence, Mind, 59, 433-460.

Ulam, S. (1958), John von Neumann 1903-1957, Mathematics, History, Philosophy Bulletin of the American Mathematical Society, Providence.

Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L.A., Gomez, N., Kaiser, Ł. and Polosukhin, I. (2017), Attention is all you need, Advances in neural information processing systems, 5998–6008.

Von Neumann, J. (1955), Can we Survive Technology?, Fortune, Forbes.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4