I tre punti di singolarità raggiunti dall‘IA generativa pongono alcuni interrogativi e richiedono di affrontare criticità, per evitare di correre alcuni pericoli.
Un modello di intelligenza artificiale può prendere, autonomamente e senza la nostra supervisione, decisioni che possono avere importanti ripercussioni sulla nostra esistenza. Ma questa è solo una delle eventuali conseguenze derivanti da uno scorretto utilizzo delle nuove tecnologie legate alla cosiddetta IA generativa. Ecco quali sono i principali rischi per l’uomo.
Le singolarità dell’IA generativa: quali problemi sollevano
La scoperta della IA generativa porterà inevitabilmente al raggiungimento di tre singolarità che, se mal gestite, potrebbero sancire la fine del genere umano.
Il concetto di “punto di singolarità” o più semplicemente di “singolarità” è nato negli anni ’50 ad opera di John von Neumann, che lo ha descritto come “l’avvento di un progresso tecnologico in grado di apportare un sostanziale cambiamento nel modo di vita degli esseri umani” [1].
La maggior parte dei ricercatori si limita a valutare gli effetti della prima singolarità intesa come il punto in cui la macchina, ovvero l’intelligenza artificiale, raggiungerà e supererà le attività intellettuali di qualsiasi uomo per quanto sia abile. E alcuni di questi ritengono che siano ancora molti i limiti che gli attuali modelli di IA generativa debba ancora superare prima di raggiungere questo stadio.
Dalla letteratura scientifica emerge però che alcuni ricercatori hanno già individuato e stanno già sperimentando delle soluzioni in grado di oltrepassare tali limiti.
I limiti
Il primo limite è legato al fatto che le risposte della IA generativa sono legate solamente alla conoscenza assimilata durante la fase dell’apprendimento. Il Large Language Model (LLM) che sta alla base della IA generativa può però avvalersi di una tecnica denominata “iniezione di conoscenza” che gli permette nel tempo di dare risposte aggiornate secondo gli ultimi dati prelevati dai database [2].
Un’altra difficoltà riscontrata nella IA generativa è quella del riconoscimento del contesto e dell’intento comunicativo.
L’atto comunicativo umano è diretto da uno specifico obiettivo che può essere non solo quello di trasferire informazione, ma anche semplicemente di socializzare o di spingere il proprio interlocutore a compiere una determinata azione. La IA generativa non è in grado di comprendere pienamente l’obiettivo dell’interlocutore. Anche in questo caso si stanno mettendo a punto delle tecniche opportune come l’apprendimento con rinforzo proveniente dal riscontro umano (RLHF) [3].
L’IA generativa incontra inoltre enormi difficoltà nel modellare forme di ragionamento anche estremamente elementari che le permettano di selezionare le premesse e di scegliere le regole di inferenza più opportune per selezionare la soluzione più adeguata. Tecniche come quella del cosiddetto “ragionamento fedele” [4] sono già in grado di superare questo limite.
Si riscontrano poi problemi di performance nel ragionamento matematico, che può essere considerato come una sorta di linguaggio universale adottato da ogni essere umano. Anche qui tecniche utilizzate dalla Microsoft come quella del MathPrompter [5] permettono alla IA generativa di comprendere un problema matematico espresso con il linguaggio naturale, creandone una rappresentazione simbolica (ovvero adottando un formalismo logico-matematico).
Come superare i limiti
Una volta che l’IA generativa sarà in grado di superare questi limiti, lo step successivo sarà quello di permetterle di interagire con la realtà e con le risorse disponibili su scala globale per portare a termine le sue operazioni. Lo si potrà fare interfacciando la IA generativa con moduli sensori e moduli attuatori in grado di recuperare dati da contesti reali e di esercitare azioni su di essi. C’è già chi ritiene che tali soluzioni sanciranno il passaggio dall’Industria 4.0, basata sulla digitalizzazione dei processi produttivi, alla Industria 5.0, basata sul controllo dei processi produttivi da parte della IA [6].
ChatGPT sta inoltre già sperimentando dei plugin in grado di interfacciare il suo modello di IA generativa con servizi esterni, tra cui anche servizi transazionali di terze parti [7]. Questo ulteriore avanzamento tecnologico porterà alla seconda singolarità,
che potrebbe consentire alla macchina di prendere decisioni al posto nostro, dalla scelta degli acquisti da compiere, alla scelta dei percorsi formativi da seguire, ai posti dove passare il tempo libero ed agli investimenti da effettuare. In definitiva grazie a moduli sensori ed attuatori potremmo affidare il compito alla IA generativa di comprendere ciò che è bene o male per il genere umano. Sarà come rinunciare al
nostro libero arbitrio solo per garantirci un maggior livello di deresponsabilizzazione e di serenità. Ma qui dobbiamo capire se siamo proprio sicuri di voler affidare la nostra vita ad una IA generativa affetta da pericolosi bias.
La terza singolarità e l’impatto sull’IA generativa
All’orizzonte si sta già profilando però la possibilità di raggiungere un ulteriore dirompente sviluppo tecnologico che aprirà le porte alla terza singolarità. Quella di estendere alcune funzionalità della nostra mente attraverso la tecnologia. In un prossimo futuro potremmo diventare “fyborg”.
Fyborg è l’abbreviazione di “functional cyborg” e designa in generale un individuo potenziato con estensioni elettromeccaniche [8]. Potremmo ad esempio potenziare la nostra memoria, la nostra capacità di dialogo e la nostra conoscenza senza interagire direttamente con un classico motore di ricerca ma semplicemente interfacciando il nostro pensiero con appositi plugin di IA generativa. Si stanno già sperimentando le prime tecniche non invasive per convertire il pensiero umano in linguaggio comprensibile dalla macchina attraverso interfacce mente-computer [9].
Si sta anche pensando di creare veri e propri “cloni digitali” umani realizzando modelli di IA generativa che replichino il nostro pensiero e la nostra personalità.
Un’influencer americana che ha utilizzato le librerie di GPT-4 per animare un modello virtuale di sé stessa per dare vita a “CarynAI” [10]. Il rischio che corre il genere umano con la terza singolarità è quello più grande in assoluto. Il pericolo è di annichilire la propria stessa natura. Con la terza singolarità saremmo in grado di trascendere e superare ogni nostro limite. Persino la temporalità della nostra stessa esistenza. Ma le conseguenze sarebbero tragiche.
Creatività, empatia ed arte del compromesso: cosa rende grande l’intelligenza emotiva
Paradossalmente ciò che ci rende veramente grandi sono i nostri stessi limiti. Fisici e mentali. La nostra creatività che ci ha consentito di realizzare opere d’arte e di architettura mirabili ed eterne come la Monna Lisa, il Colosseo e le Piramidi, riesce ad esprimersi al meglio solo in presenza di vincoli ed ostacoli.
Come sottolineato da Testa A. [11], senza questi vincoli esterni, se non addirittura autoimposti, la nostra creatività sarebbe impossibilitata a realizzare qualcosa di veramente nuovo e innovativo. Sarebbe solamente in grado di replicare quanto già stato fatto in passato [12].
Sono i nostri stessi limiti inoltre a consentirci di provare empatia e non semplice compassione nei confronti dei nostri simili e degli altri esseri viventi. Attraverso la percezione dei nostri limiti, a seguito del verificarsi di disastri naturali, impariamo
anche a rispettare la natura. Grazie alla presenza di questi vincoli esterni, riusciamo ad esercitare l’arte del compromesso con creatività, imparando a rispettare punti di vista e culture profondamente distanti dalla nostra. Questa capacità che scaturisce dalla nostra stessa finitezza è ciò che lo psicologo americano
Daniel Goleman definisce “intelligenza emotiva”, che consiste nel saper motivare se stessi in vista di un obiettivo e di calibrare i propri stati d’animo per realizzare un “sogno”.
Le tre leggi della robotica da aggiornare
In questo contesto occorre aggiornare le famose tre leggi della robotica di Asimov [14], che continuano a costituire il principale riferimento nella enucleazione delle regole che la IA deve rispettare.
- Un robot non può nuocere a un essere umano o, per inazione, permettere che un essere umano subisca un danno (legge che è stata estesa con la famosa “legge Zero” all’intera umanità). Il danno più importante che può subire l’umanità è proprio quello di perdere la sua stessa essenza. La IA quindi non può sostituirsi interamente all’essere umano nei processi decisionali che lo riguardano e non ne può potenziare le capacità cognitive (se non in casi eccezionali come la perdita completa di funzioni intellettive a seguito di incidenti o di processi naturali di invecchiamento);
- un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che tali ordini contraddicano la Prima Legge. La IA deve fornire solamente supporto decisionale ed operativo, ma l’essere umano deve poter continuare ad esercitare il pieno controllo su di essa;
- infine, un robot deve proteggere la propria esistenza, a meno che ciò contraddica la Prima o la Seconda Legge. Possiamo permettere in futuro che una IA prenda delle decisioni per salvaguardare la propria incolumità e la propria sicurezza, ma non a discapito della sicurezza umana o contraddicendo decisioni prese dagli esseri umani, come quella di inibire o eliminare alcuni suoi moduli di ragionamento o di conoscenza (come descritto nell’esempio del precedente articolo).
Non dimentichiamoci anche di approcciare la nostra esistenza con la giusta dose di umiltà. Perché, secondo quanto sancito dal paradosso di Turing e Godel [15], ci sono problemi che neppure le leggi della matematica sono in grado di risolvere. In altri termini alcuni problemi di calcolo non possono essere affrontati con algoritmi, compresi gli stessi modelli di IA. In tutti questi casi sta a noi prendere la decisione che riteniamo più valida, sfruttando la nostra intelligenza emotiva e assumendoci la responsabilità di eventuali fallimenti, che in ogni caso sono alla base della nostra crescita spirituale ed intellettuale.
Bibliografia
[1] Ulam S.(1958). “Tribute to John von Neumann”. Bulletin of the American Mathematical Society. Vol.64, n.3.
[2] Emelin D., Bonadiman D.,Alqahtani S., Zhang Y. E Mansou, S. (2022). “Injecting Domain Knowledge in Language Models for Task-Oriented Dialogue Systems”. 10.48550/arXiv.2212.08120.
[3] OpenAI. (2022). “ChatGPT: Optimizing Language Models for Dialogue”.
[4] Creswell S. (2022). “Faithful Reasoning Using Large Language Models”. DeepMind.
[5] Shima I., Liang D., Harsh S. (2023). “MathPrompter: Mathematical Reasoning Using Large Language Models”. arXiv:2303.05398v1.
[6] Puddu A. (2023). “Generative Artificial Intelligence: if we use Chat GPT in Industry 4.0” .
[7] Open AI. “ChatGPT Plugins”.
[8] Thweatt-Bates J. (2016). “Cyborg Selves A Theological Anthropology of the Posthuman”, Routledge Taylor & Francis Group
[9] Tang J., LeBel A., Jain S. e G. Huth A.G., (2023). “Semantic reconstruction of continuous language from non-invasive brain recordings”, Nature Neuroscience, doi: 10.1038/s41593-023-01304-9
[10] Lala A. (2023), “Clone digitale di una influencer animato con GPT-4: cosa può andare storto?”, everyeye.it
[11] Testa A., “La creatività ama gli ostacoli, i limiti, i vincoli e le barriere – Metodo 71”, nuovoeutile.it
[12] Armelli P. (2023), “Charlie Brooker ha provato a scrivere un episodio di Black Mirror con ChatGPT. L’esperimento non ha sortito però gli effetti sperati”, Wired.
[13] Goleman D. (1995), “Emotional Intelligence: Why It Can Matter More Than IQ”, traduzione di Isabella Blum e Brunello Lotti, Collana Saggi stranieri, Milano, Rizzoli, 1996, ISBN 978-88-178-4468-0.
[14] Asimov I. (1990), “Visioni di Robot”, Universale Economica Feltrinelli
[15] Penrose R. (2000), “La mente nuova dell’imperatore”, Rizzoli.