Intelligenza artificiale

Impariamo a essere critici verso la tecnologia: la lezione del Turco meccanico



Indirizzo copiato

Utilizzare sistemi di intelligenza artificiale sarà sempre più comune ed è per questo necessario e urgente modificare il nostro approccio all’informatica e alla tecnica, con un occhio sempre più critico ma non diffidente. Altrimenti il mondo rischia di essere ingannato come avvenne per 80 anni col Turco meccanico

Pubblicato il 20 set 2023

Paolino Madotto

manager esperto di innovazione, blogger e autore del podcast Radio Innovazione



L'AI rende funzionale il lavoro senza violare la privacy

Dal 1769 per circa 80 anni il Turco meccanico ha imperversato in Europa e negli Stati Uniti meravigliando le personalità più importanti del tempo con i prodigi che era in grado di fare giocando a scacchi con chiunque. L’automa ha battuto Napoleone e altre personalità del tempo, si è confrontato con scacchisti abilissimi e con le corti di mezza Europa senza mai far capire a nessuno il suo reale funzionamento attraverso un uomo nascosto dentro che metteva le sue strategie di gioco e le sue abilità personali al servizio dell’illusione.

Anche quella che chiamiamo Intelligenza Artificiale, in un certo modo, è frutto delle strategie personali, della capacità e dei valori di chi realizza le diverse soluzioni. Dietro a ChatGPT o Bard ci sono persone che sono nascoste da righe di codice e dati di addestramento che ci fanno sembrare questi sistemi neutrali anche quando non lo sono.

I progressi dell’Intelligenza Artificiale sono reali e non sono una illusione ma la storia del Turco Meccanico ci può aiutare a comprendere meglio cose c’è dietro a Large Language Models come ChatGPT e Bard. E a quali siano i rischi nell’affidarcisi completamente.

La storia del Turco meccanico

Un giorno del 1769 il famoso illusionista francese François Pelletier stava catturando su di sé tutte le attenzioni della corte di Maria Teresa d’Austria. Pellettier era considerato tra i più bravi illusionisti del tempo ed era noto per utilizzare una grande quantità di magneti per realizzare i suoi trucchi.

Lo scrittore ungherese Wolfgang von Kempelen fu ispirato da questa rappresentazione e un anno più tardi tornò alla corte per presentare qualcosa di veramente eccezionale: “Il Turco”.

Il turco era un automa sorprendente perché con le fattezze di un uomo era in grado di giocare a scacchi con chiunque e il più delle volte vincere, per un certo tempo venne perfino considerato imbattibile.

Immagine che contiene interno, arredo, vestiti, Viso umanoDescrizione generata automaticamente

Prima delle rappresentazioni venivano aperti tutti gli sportelli e veniva girato in modo che il pubblico potessero accertarsi che dentro ci fossero ingranaggi di ogni tipo, meccanismi che avrebbero permesso all’automa di funzionare.

Anche durante le rappresentazioni dell’automa venivano aperti gli sportelli e si potevano vedere gli ingranaggi, lo spettacolo prevedeva una luce soffusa e veniva illuminata la tastiera con dei candelabri. Dal cappello del turco poteva uscire del fumo ma per il resto la partita andava avanti.

L’unica condizione di gioco era che il turco dovesse avere la prima mossa e usare i pezzi bianchi. Nel caso l’avversario metteva un pezzo fuori posto il turco lo metteva al punto di partenza e scuoteva la testa.

Il Turco ebbe un successo incredibile, giocò e vinse con personalità del calibro di Napoleone e Benjamin Franklin allora ambasciatore Usa in Europa ma giocò anche con molti scacchisti importanti e fece tournée in mezza Europa e nelle Americhe passando per le principali città statunitensi e per l’Avana.

Come il Turco riuscì a ingannare il mondo

Alla morte dell’inventore la carriera del Turco proseguì per opera del musicista bavarese Johann Nepomuk Mälzel che ne divenne proprietario. Non che non ci fossero dubbi o che mai nessuno abbia avuto dei sospetti ma alla fine per circa 80 anni nessuno mai riuscì a svelare e comprendere sino in fondo il mistero.

In realtà dentro al Turco si nascondeva una persona che era posizionata in modo che anche aprendo gli sportelli, grazie ad un sistema molto sofisticato, non era possibile vedere. La persona aveva una scacchiera e le candele che utilizzava per illuminarla facevano uscire il fumo dal cappello del turco.

Attraverso un pantografo era possibile muovere il braccio del Turco in modo molto preciso sulla scacchiera superiore e attraverso dei magneti era possibile seguire i pezzi della scacchiera, ogni pezzo conteneva un piccolo magnete che rendeva questo possibile.

Per 80 anni circa il Turco era riuscito ad ingannare il mondo, anche se Edgar Allan Poe ne “Il giocatore di scacchi di Maelzel (Maelzel’s Chess Player)”, pubblicato nel 1836 sul «Southern Literary Messenger» aveva messo in dubbio in modo sistematico l’illusione del Turco. In realtà Edgard Allan Poe aveva riassunto una serie di dubbi e congetture nei confronti del Turco ma senza mai comprendere sino in fondo il mistero.

Tutti gli automi costruiti fino a quel momento, osserva Poe, anche i più sofisticati, sono in grado di compiere soltanto azioni meccaniche, predeterminate. Perfino una macchina molto avanzata, come quella di Babbage, che può eseguire calcoli su dati variabili, ha bisogno che i termini delle operazioni siano definiti in precedenza.

In una partita di scacchi, invece, non possiamo sapere in anticipo quale mossa farà l’avversario. Se una macchina fosse veramente in grado di giocare a scacchi, allora ci troveremo di fronte alla più grande invenzione dell’umanità. Dunque, non ci sono dubbi: le azioni del turco sono governate da un intervento umano. La domanda è: come?

Tuttavia, Maelzel, malgrado disponesse del Turco, era un tipo che faceva debiti che non riusciva a ripagare per cui indebitatosi anche negli Stati Uniti, vendette l’automa a John F. Ohl per 400 dollari, quest’ultimo dopo alcuni anni lo cedette al museo di Philadelphia. Qui venne distrutto dall’incendio che devastò la città il 5 luglio 1854. Solo allora il figlio del suo possessore decise di svelarne il segreto.

Immagine che contiene Viso umano, cartone animato, vestiti, personaDescrizione generata automaticamente

Le analogie tra il Turco e l’IA

La storia affasciante del Turco Meccanico ha ispirato Amazon[1] nella creazione di una piattaforma di crowdsourcing nella quale i lavoratori si possono iscrivere e mettersi a disposizione per fare dei compiti che committenti assegnano. Non c’è bisogno di conoscersi tra committente e lavoratore e l’interfaccia è la piattaforma.

L’intelligenza Artificiale si basa sul far apprendere a degli algoritmi dei comportamenti basati sui dati di input. Per procedere alla messa a punto di un sistema di intelligenza artificiale è necessario anzitutto selezionare e costruire un insieme di dati di addestramento. Questi dati devono essere spesso elaborati in modo che possano riportare tutte le possibili casistiche alle quali vogliamo addestrare il sistema, è necessario anche definire quante volte queste casistiche debbono essere sottoposte in addestramento.

Per esempio, se voglio che il mio sistema di IA impari a mettere chiodi su un asse di legno è necessario che io gli fornisca in ingresso una casistica molto numerosa di scene di un martello che batte su un chiodo, che consideri anche il caso nel quale il chiodo si piega o si rompa oppure che l’asse di legno in corrispondenza di un nodo non consenta di infilare il chiodo.

Come si costruisce un dataset di addestramento

Costruire questo dataset di addestramento è una operazione molto complessa ed impone che siano fatte delle scelte in base alle proprie convinzioni. Se penso che nessun legno possa resistere ad un buon chiodo potrei decidere di non inserire le situazioni nelle quali questo assunto non è vero, poiché non cercavo questi casi nemmeno mi rendo conto di non averle inserite. Una selezione “ideologica” non deve essere per forza frutto di una scelta consapevole, può essere il frutto di una distorsione in buona fede.

Una volta selezionati i dati devo scegliere quale algoritmo di intelligenza artificiale si addice meglio al problema. Esistono degli indicatori più o meno standard che mi possono aiutare ma alla fine sarà alla persona il dover selezionare l’algoritmo che meglio risponde ai diversi indicatori e farlo bilanciando diverse necessità (ad esempio velocità di risposta, capacità di calcolo necessaria, ecc). Anche questa scelta alla fine è una scelta arbitraria che dipende dalla persona che la compie, la strada per risolvere un problema passa da diverse vie e la scelta della via non è solo tecnica e può essere influenzata dalla ideologia di chi compie la scelta anche se lo fa in buona fede.

Infine, è necessario verificare l’attendibilità dei risultati sulla situazione reale e anche qui è compito del tema di ricercatori dare degli indicatori con i quali giudicare la bontà di quanto realizzato.

Una volta che l’algoritmo comincia a funzionare, nei casi più sofisticati come Alexa di Amazon ma molti altri, di solito ci sono un piccolo “esercito” di “taggatori” che hanno il compito di analizzare la risposta dell’algoritmo (in realtà le incertezze o i casi nei quali la risposta sia stata errata) e di indicare la risposta giusta affinché l’algoritmo possa impararla. Questo è facile finché devo decidere tra una pallina molto nera e una molto bianca ma se mi trovo di fronte ad una pallina grigia può diventare più complicato attribuirgli la classe bianca o nera. In questo caso il taggatore o esprime una sua valutazione o, spesso, esprime una sua valutazione sulla base di indicazioni fornite dal cliente e qui si crea di nuovo il problema dei criteri dell’algoritmo.

Dunque, i risultati di un sistema di intelligenza artificiale non sono solo l’applicazione di una tecnica ma l’applicazione di criteri di giudizio e valutazione, esperienza e capacità di comprendere la vera natura del problema. In un progetto di Intelligenza Artificiale l’informatica centra poco o comunque il giusto, come c’entrano poco anche alcune conoscenze tecniche matematiche. Ciò che è importante è la capacità di conoscere sino in fondo il problema e la capacità e l’esperienza di applicare particolari tecniche matematiche di valutazione dei risultati e dei dati di ingresso.

L’etica dei sistemi di IA

I sistemi di IA acquisiscono una loro etica che gli viene in un certo senso indotta dal tema di ricerca. Tutti quanti abbiamo ormai giocato con ChatGPT e ci siamo divertiti a fare domande o considerazioni di ogni tipo per coglierlo in fallo, un po’ come si faceva con i bambini per fargli dire una parolaccia e poi riderci su (almeno alla mia generazione si faceva). Ecco se ci si fa caso ChatGPT risponde sempre con un modo “buonista”, non dice parolacce (bisogna aggirare le sue barriere), ci propone valori e stili di vita aperti, inclusivi, liberali, democratici, ecc. Eppure, il mondo non è così, nella realtà c’è di tutto e basta andare un attimo su Internet per rendersi conto che non è detto che i valori “buonisti” siano la maggioranza. Malgrado questo ChatGPT è stato addestrato per non uscire mai dai “binari della correttezza”, se fosse addestrato sul Dark Web risponderebbe probabilmente in modo totalmente differente ma non sarebbe socialmente sostenibile.

Recentemente Meta ha rilasciato una nuova versione di un suo LLM e richiama l’attenzione sul fatto che il modello potrebbe esporre contenuti pericolosi.

L’IA ha opinioni politiche?

Una recente ricerca “From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models” ha messo a confronto differenti LLM con le opinioni politiche arrivando alla conclusione che I diversi LLM hanno tendenze differenti e ad esprimerle in modo sintetico.

Come si vede dalla predisposizione dei punti sui quadranti ne esce un sistema di valori molto “liberal”. Indipendentemente dalle nostre specifiche valutazioni il tema non è che questi sistemi non possano avere delle tendenze politiche o valoriali ma che noi tendiamo ad utilizzarli pensando che non li abbiano.

I modelli di LLM, con i loro sistemi di valori e criteri differenti di rappresentazione della realtà, hanno questo rischio ma si celano dietro un manto di neutralità della tecnica.

Le risorse necessarie a mettere a punto un LLM ad oggi sono molto costose, soprattutto in termini di elaborazione dei dati. Questo limita la creazione di molti modelli diversi e facilita la concentrazione. Vari paesi stanno cominciando ad interrogarsi per dare risposte, in Cina sono stati posti dei vincoli ai criteri di addestramento e ai risultati. I vari LLM che prenderanno piede non potranno andare contro le idee sociali predominanti (lo stato socialista), essere offensive e via dicendo. Un altro approccio potrebbe prevedere, per esempio, delle risorse pubbliche a disposizione di ricercatori o dei team che vogliono sviluppare LLM.

Se pensiamo ad esempio in Italia il CINECA potrebbe rendere disponibili le sue capacità elaborative per essere messe a disposizione col vincolo che poi gli LLM dovrebbero essere a disposizione del pubblico e resi pubblici i criteri e vincoli di addestramento.

A tutto questo si aggiunge un recente studio dal titolo “How Is ChatGPT’s Behavior Changing over Time?” che secondo i ricercatori dimostra come la performance di GPT4.0 stia peggiorando con il tempo mentre la versione 3.5 non avrebbe questi problemi. I ricercatori fanno notare come il modello chiuso adottato da OpenAI non consenta di avere trasparenza sui criteri di addestramento e affinazione e l’unica valutazione che è possibile è “black box” ovvero testando il sistema dall’esterno.

Conclusioni

In conclusione, diciamo che i LLM sono una enorme potenzialità che sta ancora alle prime armi, escono nuovi modelli mensilmente e si affinano nuove tecniche per addestrare i modelli con meno risorse e meno dati di input.

Quello che è importante ricordare è che dietro ogni tecnologia c’è un sistema di valori e che non dobbiamo completamente affidarci a questi sistemi. Differenti sistemi di valori non significa che uno funziona e l’altro no perché possono esserci diverse strade per arrivare alla soluzione.

Copernico quando propose il suo sistema di calcolo che vedeva al centro il sole e non la terra non voleva rimettere in discussione la dottrina scientifica tolemaica in voga sino a quel momento. Semplicemente Copernico aveva esplorato un modo per semplificare il calcolo delle orbite dei pianeti, anche il sistema tolemaico funzionava perfettamente ma era solo più complicato. Solo anni più tardi, con Galileo, si arrivò a conferme che costarono torture e abiura a quest’ultimo.

È necessario che i modelli LM debbano essere sempre di più pubblici (nel senso che si possano conoscere i criteri con i quali sono stati creati) e i criteri di realizzazione siano chiari. È necessario che si conoscano gli autori, le loro idee del mondo, le idee del mondo delle loro aziende. È necessario che quando approcciamo un problema da affrontare con queste tecnologie si analizzi il tipo di problema e si applichi il modello più adatto con la consapevolezza che il sistema che risponde a tutto bene senza rischi non esiste e per ora non si vede all’orizzonte.

Utilizzare LLM sarà sempre più inevitabile ma è necessario e urgente ancora di più modificare il nostro approccio all’informatica e alla tecnica verso un occhio sempre più critico ma non diffidente. Conoscere le tecnologie sapendo che possono surrettiziamente imporci un sistema di valori, abitudini, comportamenti e cercare di comprendere cosa c’è sotto la superficie, approfondire e valutare è sempre più importante. L’esperto di digitalizzazione del futuro dovrà essere meno “bit&byte”, più capace di andare a fondo comprendendo cosa c’è dietro la tecnologia, come funziona realmente e quali sono le sue implicazioni all’interno delle organizzazioni. Non lasciare una tecnologia sempre più pervasiva nella nostra vita in mano ai tecnici e agli ingegneri ma riportarla a strumento per far vivere meglio la società.

Intelligenza artificiale

Impariamo a essere critici verso la tecnologia: la lezione del Turco Meccanico

Utilizzare sistemi di intelligenza artificiale sarà sempre più comune ma è necessario e urgente ancora di più modificare il nostro approccio all’informatica e alla tecnica, con un occhio sepre più critico ma non diffidente. Altrimenti il mondo rischia di essere ingannato come avvenne per 80 anni col Turco meccanico

Dal 1769 per circa 80 anni il Turco meccanico ha imperversato in Europa e negli Stati Uniti meravigliando le personalità più importanti del tempo con i prodigi che era in grado di fare giocando a scacchi con chiunque. L’automa ha battuto Napoleone e altre personalità del tempo, si è confrontato con scacchisti abilissimi e con le corti di mezza Europa senza mai far capire a nessuno il suo reale funzionamento attraverso un uomo nascosto dentro che metteva le sue strategie di gioco e le sue abilità personali al servizio dell’illusione.

Anche quella che chiamiamo Intelligenza Artificiale, in un certo modo, è frutto delle strategie personali, della capacità e dei valori di chi realizza le diverse soluzioni. Dietro a ChatGPT o Bard ci sono persone che sono nascoste da righe di codice e dati di addestramento che ci fanno sembrare questi sistemi neutrali anche quando non lo sono.

I progressi dell’Intelligenza Artificiale sono reali e non sono una illusione ma la storia del Turco Meccanico ci può aiutare a comprendere meglio cose c’è dietro a Large Language Models come ChatGPT e Bard. E a quali siano i rischi nell’affidarcisi completamente.

La storia del Turco meccanico

Un giorno del 1769 il famoso illusionista francese François Pelletier stava catturando su di sé tutte le attenzioni della corte di Maria Teresa d’Austria. Pellettier era considerato tra i più bravi illusionisti del tempo ed era noto per utilizzare una grande quantità di magneti per realizzare i suoi trucchi.

Lo scrittore ungherese Wolfgang von Kempelen fu ispirato da questa rappresentazione e un anno più tardi tornò alla corte per presentare qualcosa di veramente eccezionale: “Il Turco”.

Il turco era un automa sorprendente perché con le fattezze di un uomo era in grado di giocare a scacchi con chiunque e il più delle volte vincere, per un certo tempo venne perfino considerato imbattibile.

Immagine che contiene interno, arredo, vestiti, Viso umanoDescrizione generata automaticamente

Prima delle rappresentazioni venivano aperti tutti gli sportelli e veniva girato in modo che il pubblico potessero accertarsi che dentro ci fossero ingranaggi di ogni tipo, meccanismi che avrebbero permesso all’automa di funzionare.

 

Anche durante le rappresentazioni dell’automa venivano aperti gli sportelli e si potevano vedere gli ingranaggi, lo spettacolo prevedeva una luce soffusa e veniva illuminata la tastiera con dei candelabri. Dal cappello del turco poteva uscire del fumo ma per il resto la partita andava avanti.

L’unica condizione di gioco era che il turco dovesse avere la prima mossa e usare i pezzi bianchi. Nel caso l’avversario metteva un pezzo fuori posto il turco lo metteva al punto di partenza e scuoteva la testa.

Il Turco ebbe un successo incredibile, giocò e vinse con personalità del calibro di Napoleone e Benjamin Franklin allora ambasciatore Usa in Europa ma giocò anche con molti scacchisti importanti e fece tournée in mezza Europa e nelle Americhe passando per le principali città statunitensi e per l’Avana.

Come il Turco riuscì a ingannare il mondo

Alla morte dell’inventore la carriera del Turco proseguì per opera del musicista bavarese Johann Nepomuk Mälzel che ne divenne proprietario. Non che non ci fossero dubbi o che mai nessuno abbia avuto dei sospetti ma alla fine per circa 80 anni nessuno mai riuscì a svelare e comprendere sino in fondo il mistero.

In realtà dentro al Turco si nascondeva una persona che era posizionata in modo che anche aprendo gli sportelli, grazie ad un sistema molto sofisticato, non era possibile vedere. La persona aveva una scacchiera e le candele che utilizzava per illuminarla facevano uscire il fumo dal cappello del turco.

Attraverso un pantografo era possibile muovere il braccio del Turco in modo molto preciso sulla scacchiera superiore e attraverso dei magneti era possibile seguire i pezzi della scacchiera, ogni pezzo conteneva un piccolo magnete che rendeva questo possibile.

Per 80 anni circa il Turco era riuscito ad ingannare il mondo, anche se Edgar Allan Poe ne “Il giocatore di scacchi di Maelzel (Maelzel’s Chess Player)”, pubblicato nel 1836 sul «Southern Literary Messenger» aveva messo in dubbio in modo sistematico l’illusione del Turco. In realtà Edgard Allan Poe aveva riassunto una serie di dubbi e congetture nei confronti del Turco ma senza mai comprendere sino in fondo il mistero.

Tutti gli automi costruiti fino a quel momento, osserva Poe, anche i più sofisticati, sono in grado di compiere soltanto azioni meccaniche, predeterminate. Perfino una macchina molto avanzata, come quella di Babbage, che può eseguire calcoli su dati variabili, ha bisogno che i termini delle operazioni siano definiti in precedenza.

In una partita di scacchi, invece, non possiamo sapere in anticipo quale mossa farà l’avversario. Se una macchina fosse veramente in grado di giocare a scacchi, allora ci troveremo di fronte alla più grande invenzione dell’umanità. Dunque, non ci sono dubbi: le azioni del turco sono governate da un intervento umano. La domanda è: come?

Tuttavia, Maelzel, malgrado disponesse del Turco, era un tipo che faceva debiti che non riusciva a ripagare per cui indebitatosi anche negli Stati Uniti, vendette l’automa a John F. Ohl per 400 dollari, quest’ultimo dopo alcuni anni lo cedette al museo di Philadelphia. Qui venne distrutto dall’incendio che devastò la città il 5 luglio 1854. Solo allora il figlio del suo possessore decise di svelarne il segreto.

Immagine che contiene Viso umano, cartone animato, vestiti, personaDescrizione generata automaticamente

Le analogie tra il Turco e l’IA

La storia affasciante del Turco Meccanico ha ispirato Amazon[1] nella creazione di una piattaforma di crowdsourcing nella quale i lavoratori si possono iscrivere e mettersi a disposizione per fare dei compiti che committenti assegnano. Non c’è bisogno di conoscersi tra committente e lavoratore e l’interfaccia è la piattaforma.

L’intelligenza Artificiale si basa sul far apprendere a degli algoritmi dei comportamenti basati sui dati di input. Per procedere alla messa a punto di un sistema di intelligenza artificiale è necessario anzitutto selezionare e costruire un insieme di dati di addestramento. Questi dati devono essere spesso elaborati in modo che possano riportare tutte le possibili casistiche alle quali vogliamo addestrare il sistema, è necessario anche definire quante volte queste casistiche debbono essere sottoposte in addestramento.

Per esempio, se voglio che il mio sistema di IA impari a mettere chiodi su un asse di legno è necessario che io gli fornisca in ingresso una casistica molto numerosa di scene di un martello che batte su un chiodo, che consideri anche il caso nel quale il chiodo si piega o si rompa oppure che l’asse di legno in corrispondenza di un nodo non consenta di infilare il chiodo.

Come si costruisce un dataset di addestramento

Costruire questo dataset di addestramento è una operazione molto complessa ed impone che siano fatte delle scelte in base alle proprie convinzioni. Se penso che nessun legno possa resistere ad un buon chiodo potrei decidere di non inserire le situazioni nelle quali questo assunto non è vero, poiché non cercavo questi casi nemmeno mi rendo conto di non averle inserite. Una selezione “ideologica” non deve essere per forza frutto di una scelta consapevole, può essere il frutto di una distorsione in buona fede.

Una volta selezionati i dati devo scegliere quale algoritmo di intelligenza artificiale si addice meglio al problema. Esistono degli indicatori più o meno standard che mi possono aiutare ma alla fine sarà alla persona il dover selezionare l’algoritmo che meglio risponde ai diversi indicatori e farlo bilanciando diverse necessità (ad esempio velocità di risposta, capacità di calcolo necessaria, ecc). Anche questa scelta alla fine è una scelta arbitraria che dipende dalla persona che la compie, la strada per risolvere un problema passa da diverse vie e la scelta della via non è solo tecnica e può essere influenzata dalla ideologia di chi compie la scelta anche se lo fa in buona fede.

Infine, è necessario verificare l’attendibilità dei risultati sulla situazione reale e anche qui è compito del tema di ricercatori dare degli indicatori con i quali giudicare la bontà di quanto realizzato.

Una volta che l’algoritmo comincia a funzionare, nei casi più sofisticati come Alexa di Amazon ma molti altri, di solito ci sono un piccolo “esercito” di “taggatori” che hanno il compito di analizzare la risposta dell’algoritmo (in realtà le incertezze o i casi nei quali la risposta sia stata errata) e di indicare la risposta giusta affinché l’algoritmo possa impararla. Questo è facile finché devo decidere tra una pallina molto nera e una molto bianca ma se mi trovo di fronte ad una pallina grigia può diventare più complicato attribuirgli la classe bianca o nera. In questo caso il taggatore o esprime una sua valutazione o, spesso, esprime una sua valutazione sulla base di indicazioni fornite dal cliente e qui si crea di nuovo il problema dei criteri dell’algoritmo.

Dunque, i risultati di un sistema di intelligenza artificiale non sono solo l’applicazione di una tecnica ma l’applicazione di criteri di giudizio e valutazione, esperienza e capacità di comprendere la vera natura del problema. In un progetto di Intelligenza Artificiale l’informatica centra poco o comunque il giusto, come c’entrano poco anche alcune conoscenze tecniche matematiche. Ciò che è importante è la capacità di conoscere sino in fondo il problema e la capacità e l’esperienza di applicare particolari tecniche matematiche di valutazione dei risultati e dei dati di ingresso.

L’etica dei sistemi di IA

I sistemi di IA acquisiscono una loro etica che gli viene in un certo senso indotta dal tema di ricerca. Tutti quanti abbiamo ormai giocato con ChatGPT e ci siamo divertiti a fare domande o considerazioni di ogni tipo per coglierlo in fallo, un po’ come si faceva con i bambini per fargli dire una parolaccia e poi riderci su (almeno alla mia generazione si faceva). Ecco se ci si fa caso ChatGPT risponde sempre con un modo “buonista”, non dice parolacce (bisogna aggirare le sue barriere), ci propone valori e stili di vita aperti, inclusivi, liberali, democratici, ecc. Eppure, il mondo non è così, nella realtà c’è di tutto e basta andare un attimo su Internet per rendersi conto che non è detto che i valori “buonisti” siano la maggioranza. Malgrado questo ChatGPT è stato addestrato per non uscire mai dai “binari della correttezza”, se fosse addestrato sul Dark Web risponderebbe probabilmente in modo totalmente differente ma non sarebbe socialmente sostenibile.

Recentemente Meta ha rilasciato una nuova versione di un suo LLM e richiama l’attenzione sul fatto che il modello potrebbe esporre contenuti pericolosi.

L’IA ha opinioni politiche?

Una recente ricerca “From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models” ha messo a confronto differenti LLM con le opinioni politiche arrivando alla conclusione che I diversi LLM hanno tendenze differenti e ad esprimerle in modo sintetico.

Come si vede dalla predisposizione dei punti sui quadranti ne esce un sistema di valori molto “liberal”. Indipendentemente dalle nostre specifiche valutazioni il tema non è che questi sistemi non possano avere delle tendenze politiche o valoriali ma che noi tendiamo ad utilizzarli pensando che non li abbiano.

I modelli di LLM, con i loro sistemi di valori e criteri differenti di rappresentazione della realtà, hanno questo rischio ma si celano dietro un manto di neutralità della tecnica.

Le risorse necessarie a mettere a punto un LLM ad oggi sono molto costose, soprattutto in termini di elaborazione dei dati. Questo limita la creazione di molti modelli diversi e facilita la concentrazione. Vari paesi stanno cominciando ad interrogarsi per dare risposte, in Cina sono stati posti dei vincoli ai criteri di addestramento e ai risultati. I vari LLM che prenderanno piede non potranno andare contro le idee sociali predominanti (lo stato socialista), essere offensive e via dicendo. Un altro approccio potrebbe prevedere, per esempio, delle risorse pubbliche a disposizione di ricercatori o dei team che vogliono sviluppare LLM.

Se pensiamo ad esempio in Italia il CINECA potrebbe rendere disponibili le sue capacità elaborative per essere messe a disposizione col vincolo che poi gli LLM dovrebbero essere a disposizione del pubblico e resi pubblici i criteri e vincoli di addestramento.

A tutto questo si aggiunge un recente studio dal titolo “How Is ChatGPT’s Behavior Changing over Time?” che secondo i ricercatori dimostra come la performance di GPT4.0 stia peggiorando con il tempo mentre la versione 3.5 non avrebbe questi problemi. I ricercatori fanno notare come il modello chiuso adottato da OpenAI non consenta di avere trasparenza sui criteri di addestramento e affinazione e l’unica valutazione che è possibile è “black box” ovvero testando il sistema dall’esterno.

Conclusioni

In conclusione, diciamo che i LLM sono una enorme potenzialità che sta ancora alle prime armi, escono nuovi modelli mensilmente e si affinano nuove tecniche per addestrare i modelli con meno risorse e meno dati di input.

Quello che è importante ricordare è che dietro ogni tecnologia c’è un sistema di valori e che non dobbiamo completamente affidarci a questi sistemi. Differenti sistemi di valori non significa che uno funziona e l’altro no perché possono esserci diverse strade per arrivare alla soluzione.

Copernico quando propose il suo sistema di calcolo che vedeva al centro il sole e non la terra non voleva rimettere in discussione la dottrina scientifica tolemaica in voga sino a quel momento. Semplicemente Copernico aveva esplorato un modo per semplificare il calcolo delle orbite dei pianeti, anche il sistema tolemaico funzionava perfettamente ma era solo più complicato. Solo anni più tardi, con Galileo, si arrivò a conferme che costarono torture e abiura a quest’ultimo.

È necessario che i modelli LM debbano essere sempre di più pubblici (nel senso che si possano conoscere i criteri con i quali sono stati creati) e i criteri di realizzazione siano chiari. È necessario che si conoscano gli autori, le loro idee del mondo, le idee del mondo delle loro aziende. È necessario che quando approcciamo un problema da affrontare con queste tecnologie si analizzi il tipo di problema e si applichi il modello più adatto con la consapevolezza che il sistema che risponde a tutto bene senza rischi non esiste e per ora non si vede all’orizzonte.

Utilizzare LLM sarà sempre più inevitabile ma è necessario e urgente ancora di più modificare il nostro approccio all’informatica e alla tecnica verso un occhio sempre più critico ma non diffidente. Conoscere le tecnologie sapendo che possono surrettiziamente imporci un sistema di valori, abitudini, comportamenti e cercare di comprendere cosa c’è sotto la superficie, approfondire e valutare è sempre più importante. L’esperto di digitalizzazione del futuro dovrà essere meno “bit&byte”, più capace di andare a fondo comprendendo cosa c’è dietro la tecnologia, come funziona realmente e quali sono le sue implicazioni all’interno delle organizzazioni. Non lasciare una tecnologia sempre più pervasiva nella nostra vita in mano ai tecnici e agli ingegneri ma riportarla a strumento per far vivere meglio la società.

 

  1. https://www.mturk.com/

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4