In un mondo in cui le tecnologie avanzano velocemente e in cui si parla molto – e giustamente – di transizione digitale, l’Italia (ma non solo) è un Paese nel quale la procedura per rinnovare il passaporto richiede ancora molto tempo e diversi passaggi. Passaggi non solo metaforici, ma fisici: si passa all’ufficio postale, si passa sul sito per prenotare online l’appuntamento, si passa in questura per fare di persona ciò per cui ci si era prenotati online, si passa insomma molto tempo ad aspettare e a compilare moduli cartacei.
Abbiamo posto a ChatGPT la questione, per comprendere, infine, che il chatbot – finito al centro di un’istruttoria del Garante privacy italiano – ci mostra come spesso la narrazione sia molto diversa dalla realtà. Per capirlo basta concentrarsi su alcuni aspetti di questo avanzato strumento.
Intelligenza artificiale, la pericolosa tentazione della corsa senza diritti
Cosa ne pensa ChatGPT della trafila per rinnovare il passaporto
La prima domanda è stata se conoscesse la procedura di rinnovo del passaporto: la risposta affermativa è stata corredata dai vari passaggi, esposti in maniera corretta. Una trafila piuttosto lunga ed elaborata, perfino per un’intelligenza artificiale.
Verificata la conoscenza da parte di ChatGPT della procedura abbiamo provato a capire che cosa ne pensasse. Questo in realtà è più complicato di quanto potrebbe sembrare: a ogni domanda che cominci per “cosa pensi di…?”, ChatGPT risponde di default che non può pensare, perché è un sistema di intelligenza artificiale e non ha una coscienza. Si deve così riformulare la domanda in maniera più attiva e chiedere, ad esempio, una stima dell’efficienza e della soddisfazione degli utenti.
E qui la sorpresa: secondo ChatGPT non solo il sistema è molto efficiente, ma gli utenti ne sono molto soddisfatti. A questo punto è stato chiaro che le fonti a cui stava attingendo fossero abbastanza di parte; e infatti, opportunamente interrogato, il sistema ha risposto che si stava basando sul sito web della Questura e della Polizia di Stato; alla richiesta di utilizzare come fonte forum online o recensioni degli utenti, ha infine ammesso che alcuni utenti hanno lamentato problemi nell’ottenere un appuntamento e ritardi nella consegna del nuovo passaporto.
Come si può migliorare il sistema, secondo ChatGPT
A questo punto abbiamo chiesto a ChatGPT come potrebbe essere migliorato il sistema: ha proposto delle soluzioni per aumentare la disponibilità di appuntamenti, semplificare la documentazione richiesta, migliorare la comunicazione e introdurre il rinnovo online. Quest’ultimo punto pare abbastanza interessante, quello che probabilmente ci chiediamo infatti tutti è: perché non posso rinnovare il mio passaporto online? ChatGPT ritiene che questo sarebbe perfettamente fattibile, ma anche che richiederebbe un investimento di risorse economiche e di competenze tecniche con lo scopo di realizzare un sistema robusto e sicuro.
La conversazione con ChatGPT sulla possibilità di digitalizzare completamente la procedura di rinnovo passaporto ci ha condotto a due problemi fondamentali: il primo, di carattere politico, riguarda la volontà di investire risorse per qualcosa che migliori la vita dei cittadini; il secondo, di carattere sociale, contempla la necessità di lavoratori con le competenze necessarie. Sappiamo, purtroppo, che nonostante i vari proclami, l’Italia è indietro da entrambi i punti di vista.
Il del digitale nella trasformazione della PA e l’avvento di ChatGPT
La situazione finora descritta si inserisce all’interno di una contraddizione più ampia, che riguarda il modo in cui oggi si narrano il presente e il futuro in relazione alla rivoluzione digitale. Il digitale stenta ad essere applicato nella indispensabile trasformazione dei processi della Pubblica Amministrazione (e non soltanto), basta vedere l’esempio del passaporto, tuttavia questo in genere non viene comunicato. Invece, l’avvento di tecnologie come ChatGPT sta portando i media e in generale la narrazione pubblica a sovrapporre le nuove tecnologie di intelligenza artificiale a quegli scenari fantascientifici con cui letteratura, cinema e televisione ci hanno nutriti per decenni. Ma è davvero così?
Rispetto ai precedenti Large Language Models (LLM), che prendevano in considerazione 3 miliardi di parametri di classificazione, ChatGPT3 ne prende in considerazione 175 miliardi. Ma quali sono i dati sui quali ChatGPT ha appreso? Qui si presenta il primo punto critico, infatti non sappiamo quali siano: OpenAI, a dispetto del nome, è un sistema abbastanza chiuso. Questo non vuol dire che sia un sistema sprovveduto o pericoloso a prescindere: basta interagire brevemente con ChatGPT per capire che molti vincoli etici e di protezione sono stati inseriti nel sistema affinché non produca risposte o discorsi dannosi. Ma questo non cambia il fatto che non sappiamo su quali dati il sistema sia stato allenato e tantomeno per quali task specifici. Un altro evidente limite è il fatto che in ChatGPT non ci sia rappresentazione della conoscenza e in generale manchi una rappresentazione semantica dei dati. Nel modello di interazione, per ogni conversazione l’input dell’utente diventa il contesto per la risposta.
ChatGPT, licenza di inventare
Il sistema immagazzina tutte le informazioni fornite dagli utenti, in una sorta di memoria locale della conversazione, e i nuovi dati forniti entrano a far parte del patrimonio informativo del sistema per le release successive. All’interno di questo meccanismo, si nota una certa accondiscendenza del sistema verso l’utente, una tendenza ad assecondare ciò che questi dice, anche se errato, e a semplificare questioni complesse cercando di ricalcare il più possibile nella risposta l’input inserito dall’utente. Questa modalità può sembrare utile nel contesto di un chatbot, finalizzato a creare una conversazione piacevole con un essere umano, ma risulta limitante e perfino fuorviante e pericolosa nel momento in cui – come si tende a fare – si utilizza ChatGPT come metodo per accedere a delle conoscenze. Il punto critico più rilevate, in questo senso, è rappresentato dal fatto che il sistema, se non trova la risposta tra le sue informazioni, può inventarla.
Provate a chiedere a ChatGPT il testo dell’Infinito di Leopardi e lo saprà; ma tentate con una poesia meno nota e la inventerà di sana pianta; e se gli farete notare l’errore, inventerà un altro testo e così via. Sembra insomma che nel momento in cui si richieda una conoscenza specifica non posseduta dal sistema, ChatGPT non riesca ad ammettere di non sapere. Si tratta probabilmente del risultato di due istanze: la necessità di fornire una risposta e la licenza di inventare. La licenza di inventare è utile nei contesti in cui l’utente richiede esplicitamente al sistema di creare qualcosa, ma non dovrebbe entrare in azione nel momento in cui l’utente richiede un’informazione specifica. Soprattutto perché se l’utente non ha consapevolezza dei limiti del sistema, prende per vera qualsiasi informazione che questo fornisce. Purtroppo, la diffusa mancanza di consapevolezza e conoscenza rispetto a possibilità e rischi, non soltanto di sistemi di questo tipo ma di tutto il digitale, crea il substrato necessario per la creazione malevola di enormi quantità di disinformazione. E questo è un rischio reale e concreto per il futuro.
I punti di forza
ChatGPT ha anche vari punti di forza. Tra di essi uno dei principali è l’efficienza nel produrre traduzioni, sommari, riassunti, rielaborazioni di testi. Inoltre, il sistema è in grado di programmare, sa commentare il codice e sa costruire un sito web e rispondere alle e-mail. In questo senso il suo utilizzo sarebbe senz’altro efficace, ad esempio, per comporre la campagna di comunicazione di un’azienda (ma – attenzione – un’azienda che usa ChatGPT sta cedendo i suoi dati al sistema). Di certo sarebbe un grande vantaggio per un’azienda averne una versione ad-hoc, personale e personalizzata. In generale, un sistema del tipo di ChatGPT potrebbe rimpiazzare il lavoro “medio” di un umano, ma non creare qualcosa che non ha mai imparato. Arriverà a sostituirci? La risposta al momento è no e la motivazione sta alla base del funzionamento di questi sistemi: la macchina non ha le capacità di concettualizzazione e ragionamento che caratterizzano l’intelligenza umana, neanche ha quello che si chiama common sense reasoning, si basa essenzialmente su probabilità e statistica.
Conclusioni
Infatti ha bisogno di tantissimi esempi per generalizzare; a un essere umano, invece, ne può bastare anche uno soltanto, che viene elaborato attraverso l’utilizzo della pragmatica, ossia della nostra connessione con il mondo reale, che ChatGPT ovviamente non ha. Questo tratto dovrebbe farci riconsiderare la correttezza dell’utilizzo del termine “intelligenza”: dal momento che le modalità di apprendimento di questi sistemi sono così diverse da quelle umane sarebbe forse più opportuno, per non creare confusione, utilizzare un termine diverso, o perlomeno rendere chiara anche a livello di discorso pubblico e di media la differenza tra l’intelligenza umana e la cosiddetta intelligenza artificiale, per evitare la propagazione di scenari fantascientifici, che siano essi catastrofici o fiabeschi.