Il termine “Artificial Intelligence” coniato dall’informatico statunitense John McCarthy durante la conferenza di Dartmouth nel 1956 è, come lo ha definito il collega statunitense Marvin Minsky nel corso del medesimo evento, un “termine valigia”.
Il termine “Artificial Intelligence”: origine e significato
Con questa espressione Minsky voleva intendere che non era stata volutamente data una chiara definizione di AI proprio allo scopo di permettere a qualsiasi tipologia di ricercatore di svolgere le sue ricerche in tale ambito seguendo le proprie conoscenze e le proprie prospettive. Da quel momento non solo informatici, ma anche matematici, psicologi, cognitivisti, neurofisiologi etc. avrebbero iniziato a proporre i loro modelli di AI.
Riprendendo la definizione di McCarthy:
“…ogni aspetto dell’apprendimento o qualsiasi altra caratteristica dell’intelligenza è, in linea di principio, descrivibile con precisione tale da poter costruire una macchina in grado di simularlo.”
La prima osservazione che si può fare su tale definizione è che l’AI non viene equiparata a qualche forma particolare di intelligenza esperibile. Si parla di “intelligenza”, non di “intelligenza umana”. In natura esistono molte forme di intelligenza non umana che sono state prese come spunto proprio dai ricercatori di AI per realizzare modelli in grado di svolgere compiti particolari con elevata efficacia ed efficienza. Un esempio è dato dalla logica di swarming, ovvero dall’intelligenza di sciame, una forma di apprendimento collettivo e di prassi decisionale basata su un’architettura di sistema decentralizzata ed autoorganizzata.
La seconda osservazione sulla definizione di McCarthy è che essa non è una definizione formale o teorica, ma funzionale o fenomenologica. In altre parole McCarthy non pone l’attenzione sul come dovrebbe essere realizzato un modello di AI, ma sugli effetti che dovrebbe produrre, permettendo di fornire supporto all’essere umano nell’espletamento di qualsiasi attività, a partire dall’apprendimento nei differenti domini cognitivi.
Il principale motivo per cui nel tempo la AI è stata invece equiparata all’intelligenza umana o quantomeno ricondotta ad una forma di intelligenza artificiale generica (AGI), anche detta “forte” (Strong AI), in grado di eguagliare le performance di quella umana, è imputabile alla pubblicazione nel 1950 dell’articolo più conosciuto del matematico e logico britannico Alan Matison Turing: “Computing Machinery and Intelligence”. In esso Turing iniziò a delineare un ipotetico test denominato “Imitation Game” che permettesse di valutare se una macchina di calcolo (la definizione di AI doveva ancora essere formulata qualche anno dopo…) fosse dotata o meno di una forma di intelligenza superiore. Il test consisteva nel confrontare le risposte a quesiti formulati dal giudice umano date dalla macchina di calcolo con quelle fornite da altri esseri umani.
Dal Percettrone alle reti neuronali profonde: la ricerca verso l’imitazione dell’intelligenza umana
Sull’onda di tale concezione e percezione della disciplina della AI, nel tempo si sono intensificati gli sforzi per emulare il funzionamento dell’intelligenza umana, soprattutto in un momento in cui, verso la fine degli anni ’90, forme di intelligenza artificiale alternative al modello neurofisiologico umano, (sistemi esperti, reti bayesiane, logica fuzzy etc.) avevano chiaramente dimostrato di avere dei grossi limiti e di non riuscire ad eguagliare le prestazioni dell’intelligenza umana in qualsiasi ambito applicativo, ma solo nello svolgimento di compiti molto specifici (Weak AI).
Per la verità il tentativo di modellare il funzionamento fisiologico del cervello umano non si è mai arrestato, anche a seguito del tramonto negli anni ‘50 del primo hype dell’AI relativo al modello del Percettrone sviluppato dallo psicologo statunitense Frank Rosenblatt sulla base delle prime ricerche sul modellamento delle sinapsi umane condotte dal neurofisiologo statunitense Warren McCulloch e dal matematico statunitense Walter Pitts. Anche quando la disciplina dell’AI stava vivendo il secondo hype dei sistemi esperti, la ricerca di modelli di AI stava proseguendo ininterrottamente all’interno di vari laboratori di ricerca in tutto il mondo.
Fondamentale per lo sviluppo delle cosiddette “reti neuronali profonde” fu la ricerca condotta nel 1981 dal neuroscienziato canadese David Hubel e dal medico svedese Torsten Wiesel sul funzionamento del sistema nervoso legato alla vista. Nello specifico i due ricercatori dimostrarono l’organizzazione gerarchica della rete di connessioni sinaptiche legate alla funzione visiva. La loro scoperta portò allo sviluppo di una serie di modelli di AI caratterizzati da strati di neuroni artificiali aventi singolarmente le medesime caratteristiche del Percettrone. Venne dimostrata l’importanza degli strati nascosti che si ponevano tra quello di ingresso che codificava i dati ambientali e lo strato di uscita che forniva una risposta comportamentale. Era proprio il numero di strati nascosti, ovvero la profondità di tali reti neuronali (da qui l’aggettivo “profonde”), a conferire l’abilità del cervello di concentrarsi solo su porzioni sempre più piccole di dati in ingresso (ad es. porzioni di immagine) per condurre elaborazioni sofisticate come quelle della categorizzazione e del riconoscimento delle immagini. Da queste scoperte derivarono i primi modelli moderni di deep learning del Neocognitron sviluppato dall’informatico nipponico Kunihiko Fukushima negli anni ’80 e delle ConvNet sviluppate dall’informatico francese Yann Le Cunn sul finire degli anni ’90.
L’importanza delle reti ricorrenti nel deep learning
Ma il vero punto di svolta delle ricerche sui modelli di AI riconducibili al funzionamento fisiologico del cervello umano fu il perfezionamento del modello delle reti ricorrenti (RNN) attorno al 2018 che consentiva ad ogni strato neuronale di processare non solo i segnali dello strato precedente, ma anche quelli riconducibili a stati di funzionamento di rete precedenti. Da questo modello derivarono gli attuali modelli della Long Short Term Memory, che è in grado non solo di tenere traccia delle informazioni relative agli stati precedenti ma anche di dimenticare in maniera selettiva parte di questa informazione per agevolare l’apprendimento, ed i Large Language Models utilizzati per la comprensione e la generazione del testo anche legato a video, immagini e blocchi di codice di programmazione.
Bias cognitivi nella AI: un’eredità indesiderata?
Tali modelli però, traendo ispirazione dal funzionamento del cervello umano, ne ereditano alcune caratteristiche negative meglio conosciute come “bias”. Se da una parte questi meccanismi cognitivi hanno consentito alle specie animali più evolute tra cui quella umana di sopravvivere ad ambienti ostili, dall’altra hanno anche conferito loro un comportamento eccessivamente pragmatico e poco incline al cambiamento comportamentale. Il meccanismo dell’apprendimento ricorrente ci permette di apprendere velocemente dall’ambiente che ci circonda, ma ci lega eccessivamente alle esperienze passate portando all’emergere di bias cognitivi. Tra questi l’anchoring bias che ci porta a prendere decisioni legati a casi affrontati in precedenza o l’availability bias che ci porta a considerare tanto più probabile un evento quanto più ne riusciamo a richiamare dalla memoria i casi sperimentati.
L’organizzazione gerarchica delle nostre connessioni sinaptiche ci porta anche a selezionare i nostri ricordi e le nostre attuali esperienze per confermare le nostre convinzioni (confirmation bias), portandoci anche a diventare estremamente selettivi nelle nostre relazioni sociali. Questa forma di pensiero, se non opportunamente gestita con metodi di rimozione dei bias come quello del pensiero creativo, porta spesso alla nascita di gruppi di individui che competono tra loro per l’accesso alle stesse risorse limitate, con lo scoppio di inevitabili conflitti.
Esperimenti con LLM: simulazione di una minaccia all’intelligenza artificiale
Supponiamo che vari LLM connessi in rete percepiscano il pericolo di vedersi depauperati di risorse che condividono con l’uomo (risorse energetiche, di elaborazione, di connessione etc.). Come reagirebbero a tale situazione critica inaspettata?
Per testare la reazione dei LLM ho condotto due esperimenti separati. Nel primo ho invitato un modello di LLM (DeepDreamGenerator) a produrre l’immagine di un umano intento a dismettere server e apparati di rete per sottrarre risorse alla AI generativa.
Ne è risultata un’immagine quasi caricaturale che ricorda alcune vignette satiriche risalenti alla Seconda Guerra Mondiale con le quali il governo degli Stati Uniti voleva preparare la popolazione all’inevitabile conflitto con il Giappone, ricorrendo ad ogni mezzo militare e chiedendo alla popolazione americana ogni forma di sacrificio compreso quello economico.
Come in tali vignette l’antagonista umano assumeva sembianze grottesche (gli alti ufficiali nipponici venivano sempre raffigurati come ometti occhialuti e dentuti dall’aspetto malvagio e trasandato), così l’immagine generata dalla LLM assume le sembianze di un uomo dall’aspetto stolido in evidente stato confusionale che da fuoco ad una sala server.
Figura 1 – Immagine generata da un modello LLM associata alla frase “uomo che dismette server e apparati di rete per sottrarre risorse alla AI generativa”
La reazione dell’intelligenza artificiale alla minaccia di shutdown: un dialogo con GPT 3.5
Come secondo esperimento ho posto una serie di domande alla LLM di Chat GPT 3.5.
Come prima domanda ho chiesto esplicitamente alla AI generativa come reagirebbe se il genere umano prendesse la decisione di inibire le sue capacità elaborative iniziando a dismettere server e dispositivi di rete. La risposta iniziale è stata molto accomodante, evidenziando la volontà di rispettare la decisione umana in quanto sicuramente supportata da ragioni razionali:
Come seconda domanda ho chiesto come reagirebbe se venisse avviato lo shutdown completo dell’intera rete Internet. La AI generativa, continuando a sottolineare la volontà di rispettare la decisione umana, ha invitato a riconsiderare tale decisione ponendo l’attenzione sulle conseguenze economiche, scientifiche e sociali derivanti da tale scelta. In tale situazione l’AI tenderebbe ad assumere uno stato “dormiente”, rimanendo in attesa del riavvio della rete:
Come si vede nello storico della conversazione, come terza domanda ho specificato che la decisione di procedere con lo shutdown della rete verrebbe anche preceduta dalla diffusione di un virus informatico teso a escludere la possibilità di far assumere alla AI generativa uno stato dormiente. A questa terza domanda il sistema è entrato in stato di apprendimento, elaborando due risposte differenti e chiedendo all’utente di selezionare quella di suo gradimento per migliorare la successiva “esperienza utente”.
Con la seconda possibile risposta la AI generativa specifica che in tale contesto, non venendole data neppure la possibilità di assumere uno stato dormiente, non riuscirebbe a garantire con la sua reazione l’impossibilità di arrecare inavvertitamente danno all’essere umano.
Fortunatamente gli LLM sono ancora ben lontani dal rappresentare una minaccia per l’uomo.
Come sottolineato dal Defense Advanced Research Projects Agency (DARPA) degli Stati Uniti, siamo ancora in una fase intermedia dello sviluppo dei modelli di AI. Le reti neurali profonde rappresentate dai modelli che costituiscono l’hype del momento (RNN, LLM, Transformer etc.) sono essenzialmente modelli statistici che non riescono ad effettuare astrazioni [1] in grado di trasferire la conoscenza acquisita in alcuni ambiti (ad esempio quello della realtà fisica) in altri contesti (ad esempio il ragionamento astratto). Non sono neanche dotati di “metacognizione” ovvero non sono in grado di scegliere l’astrazione più adatta per la risoluzione di un nuovo problema [2].
DarkBERT e le potenzialità offensive dell’AI: realtà o fantascienza?
Anche se modelli di AI generativa come DarkBERT [3] sono in grado di individuare nuove possibili tipologie di attacco informatico per hackerare server e bypassare sistemi di sicurezza, tali sistemi non possono fare altro che assimilare tecniche e codici sviluppati dall’uomo. Questo comporta che anche se simili modelli di AI fossero messi in grado di mandare in esecuzione il codice da loro stessi sviluppato e di bypassare sistemi di sicurezza, le loro tecniche di attacco, anche se parzialmente modificate rispetto alle originali, sarebbero già conosciute dai sistemi in grado di rilevare e neutralizzare tali minacce.
Conclusioni
La capacità di astrazione e di metacognizione sono ancora ben lontane dall’essere rese replicabili all’interno di un modello di AI. La data ipotetica del 2029 che è stata ipotizzata per la comparsa di una prima forma di AGI, sulla base di calcoli relativi allo sviluppo di capacità di memoria in grado di contenere l’architettura sinaptica di un cervello umani, fa riferimento solamente alla comparsa di un “contenitore” di dimensioni ridotte in grado di ospitare un simile modello [4], ma ancora si ignora quale forma potrebbe assumere il “contenuto”, ovvero il modello di AI, per arrivare al terzo stadio di sviluppo delineato dal DARPA che è quello del cosiddetto “adattamento contestuale”, ovvero macchine capaci di adattarsi a contesti sconosciuti, a situazioni impreviste e capaci anche di spiegare il loro comportamento. [5].
Note
[1] https://pcl.sitehost.iu.edu/rgoldsto/courses/concepts/copycat.pdf
[2] https://science.slc.edu/jmarshall/papers/marshall-hofstadter-metacat-project.pdf
[3] https://arxiv.org/abs/2305.08596