l’approfondimento

Viaggio al centro dell’IA: perché ci affascina e ci fa così paura



Indirizzo copiato

Nel 2023, Intelligenza Artificiale è stata proclamata parola dell’anno, segnando un anno di dibattiti e sviluppi significativi. L’IA ha dominato le conversazioni pubbliche, influenzando vari settori dalla ricerca all’educazione. Critiche e preoccupazioni sulla sua affidabilità e potenziale rischio esistenziale hanno accompagnato il suo crescente impatto sociale

Pubblicato il 6 feb 2024

Alessio Plebe

Università degli Studi di Messina



intelligenza artificiale ai act

Diverse istituzioni lessicografiche scelgono ogni anno la parola che, secondo i loro riscontri, è la più significativa dell’anno, e per il 2023 il Collins English Dictionary ha acclamato AI, le due lettere del felice acronimo dell’intelligenza artificiale. Non è difficile credere che le evidenze del Collins Corpus abbiano decretato AI come il termine che ha dominato le conversazioni del 2023. Anche il Cambridge Dictionaries propone la sua parola dell’anno, e per il 2023 ha selezionato “hallucinate” come la più rappresentativa.

Il 2023 dell’IA: un anno di consolidamento

Siamo sempre in tema di IA, ed è in suo riferimento che questa parola nell’anno passato ha riscosso un gran successo giornalistico, connotando i casi in cui i modelli neurali del linguaggio (NLM) generano testo convincente, ma non corrispondente a fatti reali. La sua popolarità è sintomatica dell’ondata denigratoria che si è sollevata nel 2023 nei confronti dell’IA, su cui discutiamo più avanti. Ondata di cui è rimasto immune il nostro Presidente della Repubblica Sergio Mattarella. Infatti, l’IA ha trovato posto anche tra i temi accuratamente scelti come cruciali del 2023 nel suo discorso di fine anno, e in termini positivi ed ottimisti, dicendo che “sta generando un progresso inarrestabile”, e grazie ad essa “ci troviamo nel mezzo di quello che verrà ricordato come il grande balzo storico dell’inizio del terzo millennio”.

Il 2023 ha sicuramente visto l’IA protagonista, oltre alle esemplari testimonianze appena citate, lo conferma l’oramai quotidiana presenza sui mezzi di comunicazione giornalistica e televisiva. Paradossalmente, da un punto di vista prettamente scientifico si è trattato invece di un anno piuttosto magro di risultati, si potrebbe dire che l’IA abbia vissuto di rendita. Non si registrano innovazioni paragonabili a quelle degli anni precedenti, che l’hanno rivoluzionata e sospinta al livello attuale.

Le tappe salienti dell’ascesa dell’IA

Volendo ricordare le tappe salienti di questo percorso, il suo inizio si deve a Geoffrey Hinton, il principale tra i “padri” fondativi della nuova IA, che nel 2006 riesce per primo, grazie ad una serie di mirati accorgimenti matematici, a costruire reti neurali con più di tre livelli. Da menzionare tra gli accorgimenti uno schema chiamato autoencoder, in cui un modello apprende il compito, apparentemente banale, di predire in uscita il suo stesso ingresso.

L’avvio al deep learning

È l’avvio alle reti cosiddette “profonde”, meglio note come deep learning, di cui sono nipoti gli esemplari di NLM oggi conosciuti ed usati in tutto il mondo. Viceversa, il lavoro di Hinton fu allora riconosciuto come svolta epocale solamente nel rarefatto mondo della ricerca delle reti neurali artificiali, nel 2006 confinato in pochissime università nel mondo. Nemmeno venne particolarmente notato nell’ambito più ampio dell’IA, d’altra parte anch’essa relegata in un profondo letargo. Nel 2006 IA per la gente comune significava un certo genere di filmografia e letteratura fantascientifica, e per gli scienziati una vecchia velleità dimostratasi sostanzialmente fallimentare, salvo per una piccola nostalgica cerchia di amici.

Il ruolo dei NLM nel successo dell’IA

L’introduzione del deep learning ebbe il benefico effetto di far uscire dalla marginalità il campo delle reti neurali, e dal rinnovato impulso di ricerca ne scaturì un successo che non poteva certo passare inosservato. Siamo nel 2012, di nuovo c’è lo zampino di Hinton, che con il suo studente Krizhevsky realizza un modello neurale che domina la competizione più famosa nel campo del riconoscimento di immagini, facendo crollare l’errore dal 26.0% del precedente vincitore a ben 16.4%. Per la prima volta la visione artificiale ottiene prestazioni vicine a quelle umane, non sono ancora traguardi che meritino notizie per la gente comune, ma sufficienti ad attrarre l’attenzione delle grandi aziende del mondo digitale, e ad aprire scenari applicativi dirompenti, come la guida autonoma. Google, che per prima ripone fiducia nelle prospettive del deep learning, l’anno successivo, 2013, segna un traguardo fondamentale sul versante del linguaggio, quando il team di Google inventa una tecnica, nota come word embedding, per trasformare le parole, di per sé simboli, in vettori numerici. Le normali proprietà e operazioni dell’algebra lineare su vettori trova un sorprendente parallelismo con le proprietà semantiche e composizionali delle parole di una lingua.

Soprattutto, i vettori numerici cosı̀ composti sono cibo perfetto per reti neurali, ed è questo il primo fondamentale passo verso i NLM. Nonostante la sua straordinaria rilevanza, anche questo traguardo miliare rimase interamente confinato nel mondo scientifico, nessun giornale l’ha mai raccontato e nessuna persona comune ha mai sentito parlare. Occorre aspettare il 2016 per un risultato con risonanza presso il grande pubblico, anno in cui DeepMind, l’azienda londinese fondata da Demis Hassabis e poi acquistata da Google, mettesse a punto un modello che sconfigge i campioni mondiali di Go, una specie di scacchi cinesi ben più complicato di quello occidentale. L’innovazione di cui più si vive oggi l’effetto arriva l’anno successivo, il 2017, quando il team di Google introduce il modello neurale chiamato Transformer, ideato per una precisa applicazione: la traduzione automatica, certamente non una applicazione di secondo piano, ma ben più limitata rispetto alla padronanza complessiva del linguaggio naturale dei sistemi derivati dal Transformer dal 2017 ad oggi. Questo modello combina in modo felice e innovativo una serie di strategie: la codifica neurale tramite word embedding, lo schema autoencoder, e un meccanismo chiamato di “attenzione”, per calcolare la rilevanza che ogni parola mantiene con le altre all’interno di una frase, o anche tra più frasi. Tutti i NLM attuali sono realizzati partendo dal Transformer con diverse varianti.

La storia potrebbe finire qui, volendo segnalare tappe non altrettanto cruciali come le poche appena descritte, merita l’estensione del Transformer alla visione artificiale, campo dove già, come visto poco sopra, il deep learning aveva spopolato. Il cosiddetto Vision Transformer, introdotto dal team di Google nel 2021, ne costituisce un’alternativa, con prestazioni di poco inferiori. Non sono le prestazioni di per sé la rilevanza, estendendo un’architettura ideata per il linguaggio alla visione diviene possibile l’integrazione tra le due fondamentali capacità cognitive umane, parlare e vedere. Ne scaturisce da li a poco, sempre nel 2021, DALL-E, realizzato da OpenAI, che basato sul Transformer consente di generare immagini partendo da un’arbitraria descrizione linguistica.

Perché il 2023 è stato l’anno dell’IA

Nel 2023 non si registra nessun avanzamento tecnologico di portata simile ai traguardi qui elencati, nondimeno è più che meritato considerarlo l’anno dell’IA. Non per la scienza, ma per la società. Il merito è fondamentalmente di ChatGPT, che a fine 2022 ha traghettato l’IA dal mondo della ricerca e delle grandi aziende, al consesso umano intero. La curiosità che ha suscitato è stata immediata, da una settimana dal suo rilascio il numero di utenti ha raggiunto il milione, un record assoluto e probabilmente non facile da battere in futuro. Mentre nel mondo scientifico e filosofico una della prima reazioni suscitata all’apparire di ChatGPT (o anche dei suoi immediati precursori) era chiedersi se fosse stato raggiunto il traguardo del mitico test di Turing, questo dilemma non sfiorava minimamente la maggior parte dei suoi utenti, molti dei quali non avranno nemmeno mai sentito parlare di Alan Turing.

L’uso dell’IA a scuola

A trascinare il suo utilizzo è anzitutto sorpresa, curiosità, voglia di addentrarsi in conversazioni. Ben presto, anche farne strumento pratico, funzione di cui i primi fruitori sono stati sicuramente gli studenti. Gli innumerevoli sondaggi effettuati nel 2023 in ambito educativo di ogni grado e in ogni angolo del mondo concordano sostanzialmente nel rilevare un alto grado di apprezzamento di ChatGPT. Sempre dall’ambito educativo sono arrivate testimonianze eclatanti sulla portata dei NLM. Robert Leib è un professore di filosofia all’università di Elon, ed era stato reclutato da OpenAI per testare una versione preliminare dei suoi modelli pubblici, e lo ha fatto adottando un’istanza del modello nel suo corso universitario per un intero anno, lasciando che potesse interagire con gli altri studenti, che fosse esposto alle stesse lezioni, e con stessi compiti intermedi da assolvere.

Le conversazioni intercorse durante l’esperimento sono state raccolte in un libro davvero avvincente, Exoanthropology – dialogues with AI. Una testimonianza del genere l’ha raccolta un insegnante italiano di filosofia nei licei, Marco Trainito, che nello scorso anno è stato pioniere nell’utilizzo di ChatGPT con i suoi studenti. Nel suo volume Filosofare con ChatGPT – Dialoghi (im)possibili con nove grandi spiriti del passato e un dramma teatrale Trainito esercita ChatGPT facendolo calare nei panni di vari grandi filosofi del passato, ed interrogandolo alternando modi da professore di liceo con i suoi alunni ad approfondimenti quasi alla pari.

Ecco l’irruzione di cui l’IA è stata protagonista nel 2023. In un interessante sondaggio di Demopolis, oltre i tre quarti dei rispondenti dichiarano di sapere cos’è l’IA, ma meno di un quarto dice di averla mai usata. Pur essendo assidui frequentatori di reti sociali. Gli algoritmi di IA che operano in modo mediato non impersonificano un’entità artificiale allo stesso modo di un sistema con cui si può dialogare, e lo può fare spaziando su qualunque argomento.

Il problema delle allucinazioni

Ma dell’IA il Cambridge Dictionaries ricorda le allucinazioni, correttamente, visto che è stato uno dei fenomeni attribuiti ai NLM che più ha fatto colpo. Tecnicamente, il termine è stato introdotto nel 2020 nell’ambito del linguaggio da Joshua Maynez e collaboratori del team di Google, per uno specifico problema dei software che generano sommari di documenti. Su richiesta di ridurre in modo estremo il sommario, questi software rischiano di produrre testo corretto, ma con contenuti non pienamente corrispondenti al documento originale. A loro volta questi autori avevano importato il termine allucinazione dall’ambito della visione artificiale, dove era stato usato per la prima volta nel 2000 nel contesto di generare immagini dettagliate di volti partendo da pochi pixel. In questo caso il termine era abbastanza corretto, essendo in senso proprio l’allucinazione un fenomeno percettivo, la visione o l’ascolto di qualcosa che non corrisponde (o non corrisponde pienamente) allo stimolo distale. Inoltre, nel caso della visione si tratta di un effetto desiderato, per rappresentare un’ipotesi di percezione in mancanza di una più reale. Ovviamente nel caso della produzione linguistica non vi è nulla di percettivo, si può ben concedere la liceità della sua adozione filologicamente scorretta nel caso della sommarizzazione, come fatto da Maynez. Ma il successo del termine sta nell’alludere a qualcosa di patologico, e potenzialmente pericoloso. Lanciando allarmi giornalistici sulla possibilità che ChatGPT, il compagno virtuale con cui tanto andata d’accordo, soffra di allucinazioni, si evoca la comune associazione che vien fatta tra allucinazioni e soffrire di schizofrenia o assumere droghe pesanti. Cosi come una persona comune tende facilmente a fidarsi poco di chi immagina sia schizofrenico o drogato, inizierà ad essere sospettoso dell’IA, e magari dell’uso che ne fanno i suoi figli.

È vero, ogni tanto i NLM si inventano qualcosa spacciandola per vera. Anche il titolo del libro di Leib contiene un termine, Exoanthropology, che il NLM stesso si era inventato, per descrivere in modo scientificamente degno il genere di relazione comunicativa che intercorreva tra lui e Leib, pretendendo persino che ne esistesse una definizione su Wikipedia.

L’accondiscendenza dei chatbot

Personalmente trovo intriganti e divertenti queste invenzioni, una loro connotazione molto più pregnante rispetto ad “allucinazione” è quella suggerita dal filosofo americano Anthony Chemero. Quel che ogni tanto succede con i NLM è né più né meno la strategia prevalente degli uomini politici: qualunque richiesta ricevano, tenderanno sempre di cercare in qualche modo di rispondere in modo accondiscendente ed affermativo, anche se questo implica inventarsi fatti o ragionamenti del tutto falsi.

La questione sulle allucinazioni è emblematica di una tendenza che si è manifestata in varie forme per tutto il 2023, a denigrare i NLM e di riflesso l’intera nuova IA. Anche in questo caso si può distinguere il livello scientifico, dove il fenomeno è in atto da diversi anni, e il livello di cronaca e divulgazione, con presa su una fascia ampia di società, che ha dominato soprattutto l’anno appena trascorso.

La contrapposizione tra razionalismo ed empirismo nell’IA

A livello scientifico la sperimentazione controllata dei modelli di IA, e la verifica rigorosa delle loro prestazioni, è un compito fondamentale e doveroso, e ne costituisce parte essenziale l’evidenziare ogni tipo di errore e le condizioni che li innescano. Questi risultati sono preziosi per il continuo progresso dei modelli stessi. Esiste però una tendenza deviante rispetto all’agire in modo scientificamente asettico, che cerca di collezionare ogni possibile circostanza di errore dei modelli, come supporto alla tesi che l’attuale IA di intelligenza proprio non ne possiede nulla. È necessario per comprendere a pieno il dibattito, e questa sua deriva, tener presente il quadro storico dell’IA, e in particolare la contrapposizione che si è andata sempre più cristallizzando tra due diverse visioni, teoricamente riconducibili al razionalismo e all’empirismo .

Il razionalismo è stato dominante nei primi decenni dell’IA, parzialmente offuscato dall’empirismo nelle ultime due decadi dei secolo scorso, e tornato prevalente ad inizi del 2000. Il modello emblematico dell’empirismo sono le reti neurali, e pertanto l’avvento del deep learning ha decretato un successo schiacciante dell’empirismo sul razionalismo.

La denigrazione dei NLM nel 2023

Paradossalmente, quindi, i critici più accaniti dell’attuale IA sono esponenti di rilievo dell’IA stessa, ma polarizzati nella compagine razionalista. Il filosofo americano Cameron Buckner ha delineato in modo perspicuo il quadro dello scontro intellettuale in atto riguardo il deep learning nel suo libro uscito pochi mesi fa, From Deep Learning to Rational Machines: What the History of Philosophy Can Teach Us about the Future of Artificial Intelligence. L’esponente più noto del pensiero razionalista in IA che ha mal digerito il successo del deep learning è Gary Marcus, che già nel 2019 aveva scritto il libro Rebooting AI: building artificial intelligence we can trust, ovvero la proposta di buttar via l’attuale IA per rifondarla su basi razionaliste. Da allora però la ricerca nel campo dell’IA razionalista non ha prodotto nessun risultato di rilievo, mentre con la discesa in campo dei NLM l’IA basata sul deep learning ha varcato i confini della ricerca e delle aziende diventando dominio pubblico.

Pertanto, l’unica strategia concreta per denigrarla è andare meticolosamente a caccia di ogni errore in cui incappi ChatGPT, e Marcus e suoi collaboratori mantengono un blog online di questa collezione. Marcus è in buona compagnia, una notorietà simile l’ha ottenuta Emily Bender che dal 2020 ha indirizzato la sua ricerca nel tentare di dimostrare che i NLM non sono realmente intelligenti, supportando anche lei le sue affermazioni con evidenze di errori dei NLM, stavolta soprattutto derivanti da letteratura secondaria. La particolarità di queste collezioni di errori è la loro rapida obsolescenza, provando a sottoporre oggi a GPT-4 le richieste che conducevano ad errori nelle raccolte di Marcus o gli articoli di Bender, nella maggior parte dei casi producono risposte corrette.

L’onda riflessa giornalistica: il format degli articoli critici sull’IA

Ma il 2023 è stato caratterizzato dell’onda di riflesso giornalistica delle notizie scientifiche sui casi di fallimento dei NLM, amplificati come prova della loro mancanza di intelligenza. Si è consolidato una sorta di format di questo genere di articoli, in cui l’autore ha l’atteggiamento di superiorità di chi sa vedere dietro le apparenze, e svelare ciò che non ci si aspetterebbe. Ovvero che l’IA non è intelligente. Aggiungendoci un elemento paternalistico, la sua rivelazione vuol essere di avvertimento e guida all’ignaro utente caduto nella trappola di ChatGPT. Giusto per esemplificare, un paio di titoli di articoli del genere sono L’Asino artificiale non pensa. E non scriverà mai Amleto” comparso su il Giornale, o Solo la stupidità può trovare l’intelligenza in un algoritmo su Il Secolo XIX.

Le preoccupazioni sulla futura evoluzione dell’IA

Infine, non si può mancare di accennare ad un’importante discussione che nel 2023 si è sviluppata, muovendosi da premesse diametralmente opposte rispetto alla tendenza sopra descritta. Non solo si reputa che l’attuale IA sia dotata già di una discreta dose di intelligenza, ma che sia destinata ad averne sempre di più, senza al momento poterne prevedere i limiti.

Diventa pertanto attuale preoccuparsi dei rischi che può costituire la disponibilità di sistemi IA altamente intelligenti. È un tema tutt’altro che nuovo, per esempio lo avevano trattato ampiamente i cosiddetti futuristi, come Ray Kurzweil e Nick Bostrom, ma si trattava di rischi legati ad una proiezione del tutto astratta dell’intelligenza delle macchine. L’assoluta novità del 2023 è che a manifestare preoccupazioni sono stati proprio alcuni dei principali esponenti del deep learning come Yoshua Bengio e persino lo stesso Hinton, che a maggio ha deciso di lasciare Google.

Conclusioni

Giudicare al momento quanto l’IA nel suo futuro progresso possa diventare un rischio, addirittura un rischio esistenziale per l’umanità è arduo, e meriterebbe un articolo interamente sul tema. Quel che è certo è che nessuno al mondo può avere una percezione migliore delle potenzialità dell’attuale IA, e dei suoi prossimi sviluppi, dei suoi stessi fondatori.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3