l’analisi

Allucinazioni dell’AI: come cambiano il nostro rapporto con le macchine



Indirizzo copiato

Le allucinazioni dell’AI, ovvero i risultati errati o ingannevoli prodotti dalle reti neurali, mettono in discussione il nostro approccio meccanicista alle macchine. Con l’AI, emerge la necessità di un nuovo paradigma che accetti l’incertezza e l’ambiguità intrinseche. È fondamentale un approccio critico e umano-centrico per governare questa potente tecnologia

Pubblicato il 22 ago 2024

Paolino Madotto

manager esperto di innovazione, blogger e autore del podcast Radio Innovazione



intelligenza artificiale pc

Le allucinazioni, ovvero la produzione di risultati errati o ingannevoli da parte dell’intelligenza artificiale, sfidano il nostro approccio tradizionale alle macchine e aprono la porta a un nuovo paradigma con cui dovremo fare i conti in futuro. Ciò che sappiamo del funzionamento delle reti neurali alla base dell’AI non è sufficiente da darci una spiegazione (una legge che regola l’input con l’output in modo certo e determinato), stiamo vedendo come in tutti gli ambiti dell’AI abbiamo difficoltà con il nostro approccio a codificare un senso a ciò che accade.

Abbiamo sperimentato che l’AI funziona ma non sappiamo spiegare il perché, non sappiamo come una rete di “neuroni” con una data architettura produce un risultato a volte giusto e a volte errato, non sappiamo nemmeno come rapportarci con una tecnologia così potente e così “misteriosa” che ci fa sentire non di rado minacciati.

Cerchiamo di normare con le leggi la spiegabilità degli algoritmi e la pretendiamo, pretendiamo risultati certi e precisi, pretendiamo la capacità degli algoritmi di saper valutare le implicazioni dei risultati che producono.

Come cambia il nostro approccio verso le macchine: sfide al paradigma tradizionale

Il nostro approccio verso le macchine è una costruzione che si è realizzata in diversi secoli. In particolare, la nostra società ha una prevalenza tecnico-scientifica. Ormai da diversi secoli, infatti, siamo portati a spiegare la natura attraverso regole e meccanismi che ci consentono di comprendere come funziona. Questo vale per moltissime cose quotidiane, abbiamo un “armamentario” di “tools” che a fronte di un fenomeno sono in grado di darci una spiegazione e darci gli strumenti per capire come replicarlo.

Negli ultimi 50 anni questa tendenza ha visto la sua espansione in campi come le scienze sociali, l’economia, per esempio, è sempre di più studiata con un approccio matematico fatto di variabili che modificandosi producono dei risultati anche se poi nei fatti non di rado l’inflazione non scende malgrado si alzano i tassi di interesse e le previsioni economiche non vengono rispettate.

Storicamente abbiamo acquisito l’abitudine a vedere le macchine come input, operazione effettuata e output.

Questo è il nostro impianto culturale. Ognuno di noi poi è abituato ad usare macchine che a fronte di un input ritornano un output, ad esempio se uso una lavatrice e metto del bucato lana basta che giri la manopola su “lana” ed ottengo un risultato che è quello che mi aspettavo. Questo risultato sarà migliore o minore di altre lavatrici ma con la mia mi aspetto sia sempre lo stesso a parità di input. Questo vale con l’auto, con la tv e con qualsiasi altro strumento. Abbiamo bisogno di avere strumenti che abbiano lo stesso comportamento per poter prevedere esattamente, a fronte del nostro comportamento e degli condizioni previste, il risultato della nostra opera.

L’approccio meccanicistico e le crepe del positivismo

Potremmo dire che abbiamo acquisito un approccio di “meccanica classica” o meccanicistico, ovvero, senza spiegare troppo e semplificando il più possibile, ci aspettiamo che fornendo un input ad una funzione matematica che rappresenta la legge regolatrice del fenomeno otteniamo esattamente lo stesso output.

Questo approccio ha reso la nostra comprensione della natura molto semplice, abbiamo nei fatti applicato una riduzione della realtà eliminando tutta una serie complessa di fattori che esistono ma che in fenomeni grandi non hanno così tanta importanza e abbiamo spesso semplificato e “arrotondato le cifre” in modo che il calcolo venisse semplice e comprensibile ai più[1].

Questo impianto filosofico ha portato al “positivismo” dove i quattro postulati del meccanicismo diventano una prescrizione per leggere tutto: determinismo, predicibilità, riduzionismo, reversibilità. Questa impronta ottocentesca è ancora molto presente nella nostra società, e d’altra parte gli dobbiamo molto, ma nel tempo ha dimostrato delle crepe.

Tutto questo approccio ha funzionato benissimo fino ai primi del ‘900 quando abbiamo cominciato ad investigare l’atomo o fenomeni quale la velocità e la luce che hanno problemi più complicati e perfino la cui osservazione comporta una alterazione. Se infatti non possiamo osservare un fenomeno senza alterarlo diventa molto più complicato trovare le variabili che entrano in gioco e determinarne il risultato in modo certo o, ancora, semplificarlo e arrotondarlo.

Si è così giunti alla conclusione che la natura non è per niente riduzionista ma ha una enorme complessità e dunque il risultato finale non è un valore certo ed unico ma è una probabilità. Nella meccanica classica la probabilità è sempre certa ma nella meccanica quantistica il risultato è probabile in una percentuale minore e bisogna prenderne atto.

Secondo l’approccio classico, ad ogni azione corrisponde un risultato preciso e prevedibile. Tuttavia, la meccanica quantistica ha già dimostrato che la realtà a livello subatomico non è deterministica e che l’incertezza è intrinsecamente presente nell’universo.

La complessità delle leggi della natura

La natura, dunque ha sì leggi che la regolano ma queste leggi in realtà sono molto più complesse della riduzione che noi facciamo per comprenderla e utilizzarla, nei fatti le leggi che utilizziamo sono una rappresentazione della realtà ma non la realtà che di per sé contiene una certa parte di caso e tante variabili in più. Un caso di questa riduzione è il sistema Tolemaico che vedeva al centro dell’universo la Terra. Dietro questa ipotesi si è costruito un sistema matematico che consentiva di calcolare la posizione dei pianeti in ogni momento e di farlo in modo corretto, Copernico non era partito minimamente con l’idea di voler sovvertire l’assunto della centralità della Terra ma solo dall’evidenza che ipotizzando al centro il Sole il calcolo sarebbe stato più semplice. Il sistema copernicano era nato nei fatti come una semplificazione del calcolo (per poi assurgere a “rivoluzione copernicana”), fu Galileo successivamente che poté confermare la centralità del Sole (salvo poi doverlo abiurare per noti motivi non legati alla scienza).

L’avvento dell’intelligenza artificiale

Nell’intelligenza Artificiale forse per la prima volta nella storia dell’uomo ci troviamo ad aver creato una macchina che produce un risultato probabile e di cui non conosciamo il come lo produce. Negli algoritmi di Machine Learning abbiamo un risultato misurato con diverse metriche di valutazione ma non uno certo. Un buon algoritmo può essere uno che nell’80% dei casi risponde bene, lo possiamo considerare una soglia accettabile ma non è al 100%. La percentuale rimanente di errore può essere dovuta ad una serie di fattori legati ai dati di input o altri fattori.

Con un approccio classico se avessimo così tanti e variegati dati di input per rappresentare correttamente il fenomeno e i numerosi casi otterremmo la risposta esatta al 100% ma questa situazione è teorica perché non possiamo dimostrarla e non siamo in grado di spiegare il come (questo vale soprattutto per le reti neurali, meno per il machine learning). Utilizziamo il Machine Learning perché se volessimo utilizzare un approccio classico dovremmo avere una legge che lega l’input all’output e invece non la conosciamo, se rispetto a non avere nulla abbiamo un metodo che dà la risposta esatta nel 80-90% dei casi (talvolta anche meno) abbiamo ottenuto un enorme miglioramento.

Nelle reti neurali è ancora più complicato perché nessuno conosce realmente il principio di funzionamento delle reti, si conoscono dei criteri di costruzione e applicazione ma nessuno è in grado di spiegare come una serie di operazioni matematiche (volendo semplificare i neuroni) unite tra loro da input e output (volendo semplificare le sinapsi) possano produrre risultati straordinari che ci lasciano stupefatti.

I misteri delle reti neurali e il focus sull’input

Nessuno è in grado di sapere come cambiare i pesi di una rete neurale per ottenere risultati diversi, tutti procedono a tentativi cambiando l’architettura della rete in base all’esperienza e rifacendo il training con gli stessi dati o altri differenti.

La gran parte del tempo necessario per un progetto di Intelligenza Artificiale si sposta dalle operazioni di elaborazione dell’input (approccio classico) all’input stesso e alla validazione del risultato.

Eppure, funziona, anche qui quasi sempre non sempre.

Quando vediamo che l’IA funziona siamo esterrefatti e contenti, ci sentiamo di possedere uno strumento di invincibilità verso la natura. Finalmente siamo in grado di fare cose che erano impensabili e subito ci lanciamo su quante cose meravigliose possa fare l’intelligenza artificiale con il miglioramento della tecnologia ma questo è un approccio classico alla tecnologia e purtroppo non funziona.

Non è che se a 4 GPU aggiungiamo 100 GPU il risultato migliora sicuramente, se a 3 milioni di righe di input ne aggiungiamo 30 milioni, se a 3 neuroni ne aggiungiamo 30mila e così via. Comunque, per quanti dati mettiamo in input e per quanto sofisticata la rete neurale che adottiamo comunque non potremmo mettere dentro tutta la realtà e la rete fornirà sempre dei risultati più o meno accurati ma mai certi. E siccome non ne conosciamo il funzionamento non sappiamo nemmeno governarne gli errori, e infatti i moderni LLM continuano a produrre errori. Al limite vengono creati degli strati di software che fanno da “guardrail” in modo che l’output venga filtrato da un’altra intelligenza artificiale per non arrivare troppo errato all’utente finale. Non si è ancora trovato il meccanismo affidabile, si mette a posto una cosa e si disfà un’altra.

Se prendiamo il caso di ChatGPT vediamo che non di rado tra il modello LLM che è diventato il riferimento di mercato con centinaia di miliardi di parametri e modelli opensource con solo alcuni miliardi di parametri possono on esistere così tante differenze di risultato. Al perché si può cercar di dare una spiegazione logica ma nessuno lo sa spiegare completamente e “scientificamente”.

L’IA e le sfide al nostro approccio tradizionale alle macchine

L’emergere delle allucinazioni nell’AI sfida il nostro approccio tradizionale alle macchine, che si basa su una visione deterministica e meccanicista. Ogni tanto la macchina che ci aspettiamo sempre affidabile per l’approccio culturale che ci siamo costruiti storicamente può invece in modo arbitrario produrre risultati errati. È come se una o due volte su cento o mille metto un maglione di lana con il programma “lana” della mia lavatrice ed esce come se avesse subito il programma “Jeans”, completamente stravolto l’output atteso. Di fronte a questo evento cercheremmo di capire cosa è avvenuto, chiameremmo un tecnico, ci appelleremmo ad un avvocato o ad una legge di tutela del consumatore truffato da un programma che non rispetta quanto promesso. Nell’intelligenza Artificiale questo potremmo dire che è il comportamento normale.

Di fronte a questo comportamento normale così poco “normale” per il nostro approccio stiamo costruendo un insieme di regole e leggi che tutelino il consumatore, la collettività e ogni altro soggetto coinvolto. In realtà stiamo soprattutto costruendo un impianto giuridico per tutelare i soggetti che subiscono l’Intelligenza Artificiale e questo è più che giusto. Se è vero che l’uso dell’Intelligenza Artificiale può migliorare la nostra vita è anche vero che chi la usa deve essere responsabilizzato in modo che non possa adottare dei sistemi che vadano in errore su cose fondamentali come il bias di genere o di razza o di classe ad esempio.

L’IA e il declino di un mondo completamente controllabile

Dall’altra parte non possiamo pretendere normativamente quello che non è possibile tecnicamente. Dobbiamo accettare che queste macchine “intelligenti” possano dare risposte esatte in una percentuale di casi ma non sempre, possano andare in errore e discriminare qualcuno. Questo apre un altro tema enorme di cui spesso si discute quanto si affronta il tema Intelligenza Artificiale.

Alcuni eserciti adottano droni dotati di AI che sarebbero in grado di riconoscere e decidere di agire con azioni militari senza il comando di un uomo. Ovviamente hanno commesso errori uccidendo vittime innocenti. Le auto senza conducente di cui si parla da molti anni continuano a fare errori e anche gravi, meno, non sempre ma ne fanno. In questi casi come dobbiamo comportarci?

Di fronte all’incertezza una persona ragiona con l’etica acquisita, se è uno spietato assassino non si farà problemi ad uccidere un innocente in più o in meno se invece sarà stato educato al rispetto delle persone preferirà lasciar vivo un criminale che ferire o uccidere un innocente.

Un primo approccio ci spingerebbe a trasferire una sorta di etica nell’AI e dunque costruire macchine in grado di valutare quando fare un’azione e quando no. Questo funzionerebbe se la risposta di queste macchine fosse certa ma se è probabile stiamo di nuovo con un problema etico che non sappiamo risolvere e che rimette in discussione il nostro approccio verso le macchine.

L’AI, con la sua capacità di generare allucinazioni e bias, ci ricorda che anche a livello macroscopico l’incertezza e l’ambiguità sono elementi chiave della realtà. È tempo di abbandonare l’idea di un mondo perfettamente controllabile e di abbracciare un paradigma più flessibile e adattabile.

Logica fuzzy e calcolo quantistico

Eppure, non è che ci troviamo la prima volta di fronte al fatto che la meccanica classica non produca i migliori risultati.

La logica Fuzzy, sviluppata negli anni ’60, offre un framework per gestire l’incertezza e l’ambiguità. Invece di rappresentare le informazioni in modo binario (vero/falso), la logica Fuzzy permette di esprimere gradi di verità e appartenenza. Rappresenta una logica “sfumata” che non prevede due stati: vero o falso ma situazioni diverse che sono entrambe sia vere che false. O meglio più vere che false o più false che vere. Questo genere di logica risolve meglio di quella classica alcuni sistemi complessi e nasce dalla teoria dei sistemi. Molti sistemi cibernetici hanno risultati migliori utilizzando questo tipo di logica. Questo approccio si è dimostrato efficace in diverse applicazioni, come il controllo dei sistemi complessi e la presa di decisioni in contesti incerti. Non viene insegnata a scuola e non fa parte del nostro modo di pensare ma ad esempio molti elettrodomestici la usano. Per tornare al programma della lavatrice di prima, per essere sicuri che il programma “lana” produca sempre lo stesso risultato bisognerebbe tener conto della temperatura esterna alla lavatrice, della temperatura dell’acqua in entrata e delle sue caratteristiche, di che tipo di lana è, di quanto tempo e come è stata usata, etc etc. tutte cose che messe al centro renderebbero il programma “lana” troppo complesso da gestire, invece una logica “fuzzy” in molti casi da ottimi risultati semplificando le cose.

Sentiamo parlare molto di computer quantistico come il futuro dell’informatica. Anche qui il tema è nell’approccio diverso al calcolo e al risultato, un approccio che prevede che un singolo qubit corrisponda a diversi valori classici. A prima vista è qualcosa che ci sfugge eppure gli studi e le applicazioni procedono nella convinzione che si possa arrivare ad un uso diffuso di questa tecnologia.

Verso un nuovo paradigma: assumere un approccio critico verso le macchine

L’Intelligenza Artificiale ci pone di fronte alla necessità di ripensare il nostro approccio alle macchine. Ci costringe ad uscire fuori dalla concezione positivistica e meccanicista e prendere atto che le macchine possono produrre un risultato ma sta a noi il compito di valutarlo e prendere una decisione. Lavorare con l’AI significa aumentare la produttività delle persone e semplificare il lavoro, significa anche poter effettuare cose molto più complesse e altrimenti non realizzabili altrimenti ma al contempo apre problemi di etica, bias, allucinazioni, risultati che potrebbero in alcuni casi non essere affidabili.

Dobbiamo cominciare a cambiare la nostra impostazione culturale quando usiamo l’intelligenza artificiale e imparare a non affidarci completamente alla macchina ma assumere un approccio critico, imparare a ponderare le risposte e a valutarle. Un po’ come se a darci la risposta non fosse una macchina classica dalle risposte certe ma un’altra persona che potrebbe fornirci una risposta incompleta, parziale o con qualche errore che dobbiamo valutare.

Quando ho cominciato ad entrare nel mondo del lavoro fine anni ’80 e spesso anche ora, si sente da parte degli utenti di applicazioni la famosa frase “l’ha detto il computer” con la quale si chiudeva ogni dibattimento tra diverse opinioni perché dalla macchina non potevano che uscire risposte esatte (che poi non era mica vero come sa chi ha scritto del software). Da oggi dobbiamo assumere che il computer può dire delle cose sbagliate o parzialmente esatte o probabilmente esatte. Non è un passaggio facile e ci vorranno decine di anni ad abituarci.

Possiamo aumentare la probabilità di un risultato veritiero?

Ora leggendo fino a qui potrebbe sembrare che l’Intelligenza Artificiale sia più uno strumento per aumentare l’ansia della vita moderna che risolvere problemi semplificando la vita.

Non è così, utilizzando algoritmi e applicazioni di AI se ne comprendono i limiti e si impara a fidarci dei loro risultati. Una fiducia basata sulle volte in cui ha risposto bene e ci ha dato risultati affidabili. Un po’ come quando in ufficio viene un nuovo collega e nei primi tempi viene “testato” per capire quanto è affidabile, preciso sul lavoro e ritorna risultati affidabili. Una volta che ha conquistato la fiducia l’attenzione su di lui si riduce e viene in qualche modo “certificato” come affidabile al team.

Azioni per mitigare il rischio di errore nell’AI

Mitigare il rischio di errore nell’AI è possibile e richiede un approccio multiforme che includa una serie di tecniche diverse.

Esistono delle azioni che possono essere messe in campo per aumentare l’affidabilità dell’AI come:

  • Utilizzo di dati di training di alta qualità: i dati utilizzati per addestrare i sistemi AI devono essere accurati, completi e rappresentativi del mondo reale.
  • Implementazione di tecniche di validazione e verifica rigorose: i sistemi AI devono essere sottoposti a rigorosi test e validazioni per garantire la loro affidabilità e accuratezza.
  • Provare e verificare: un progetto di AI è ancora molto basato sull’esperienza delle persone coinvolte, sulla loro scrupolosità ed attenzione. È molto più un lavoro artigiano che tecnico in senso classico.
  • Promozione di un approccio umano-centrico all’AI: l’AI dovrebbe essere utilizzata per ampliare le capacità umane, non per sostituirle.

Come si vede il fattore umano nell’AI è fondamentale, anche quelli che qualche mese fa dalla California parlavano di AI che sostituisce l’uomo e prende il suo posto stanno abbassando le loro aspettative.

Perché la persona deve governare le macchine

Macchine che possono dare risultati parziali ma che comunque ci consentono di fare molte più cose che facendone a meno debbono ancora di più essere affidate a persone che le controllano. Persone che avranno sempre più la necessità di formarsi eticamente e avere capacità di valutazione e decisione. La stessa formazione probabilmente potrebbe concentrarsi meno sulle nozioni e più sul metodo. In fondo è quello che facciamo (o dovremmo fare nella scuola) quando i ragazzi si studiano nozioni ma spesso prendono come riferimento un bravo insegnante, il suo approccio con la vita, il suo metodo di valutazione della realtà. Questa è la parte più importante della formazione dei giovani, molto di più delle nozioni che comunque saranno sempre più disponibili (senza esagerare però). Acquisire le nozioni è utile per imparare a concentrarsi, a faticare per raggiungere i risultati o a rispettare le altre persone con le quali si studia.

In questo senso la Persona torna di nuovo al centro e anzi più di prima. Non è più la persona senza personalità della fabbrica ottocentesca o dell’ufficio burocratico ma un nuovo tipo di lavoratore che ha molta più responsabilità e gradi di libertà. Ma non dobbiamo pensare al futuro in termini positivistici, può avere sempre diversi scenari possibili e non è detto che si verifichi quello sopra esposto.


[1] Tocco un tema che meriterebbe ben altro approfondimento, mi perdonerà qualche esperto se il linguaggio risulti eccessivamente divulgativo anche con il rischio che non sia preciso.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4