Sulla scia dell’inesorabile e rapida evoluzione tecnologica che accompagna i sistemi di intelligenza artificiale, è ormai noto a tutti il lancio di ChatGPT, basato sull’implementazione di InstructGPT.
Meno note sono le implicazioni, su internet e sulla società, del grande successo di questo lancio.
Ricordiamo che si tratta di un nuovo modello linguistico ottimizzato di dialogo – attualmente rilasciato in versione di prova gratuita – che interagisce in modo conversazionale per rispondere alle domande degli utenti, persino con la capacità di ammettere e contestare premesse errate, nonché di rifiutare richieste inappropriate.
ChatGPT riaccende il dibattito sulle potenzialità dell’intelligenza artificiale
Come accade ormai di frequente quando si prospetta l’esistenza di una nuova applicazione di intelligenza artificiale, si riaccende la contrapposizione tra i convinti fautori dell’inesorabile progressivo primato che sarà presto definitivamente raggiunto dalle tecnologie emergenti e coloro che, secondo un approccio realistico più cauto e pragmatico, basato sulle attuali evidenze dello stato dell’arte, evidenziano i limiti applicativi codificati in qualsiasi sistema di IA e le svariate criticità tecniche ostative alla configurazione di un’effettiva capacità di pervasivo e completo funzionamento configurabile in modalità integrale di performante auto-apprendimento.
Sta di fatto che, sin dal momento del suo lancio, ChatGPT, creato dalla startup OpenAI, ha monopolizzato la generale attenzione mediatica ben oltre la specifica ristretta nicchia degli addetti ai lavori, per le sorprendenti funzioni progettate in grado di elaborare, a mero titolo di esempio, saggi e opere letterarie su qualsiasi tema, creare stringhe di codice, effettuare analisi e previsioni, comporre poesie e canzoni, formulare consigli personalizzati, al punto da ipotizzare (ancora una volta) l’imminente declino delle abilità – anche altamente qualificate – tipicamente umane, come inevitabile conseguenza della progressiva automazione generalizzata prodotta dai sistemi di IA con l’avvento di una nuova era tecnologica destinata a “sostituire gli esseri umani”.
Sebbene una simile prospettiva sia stata più volte forse un po’ troppo frettolosamente pronosticata, per lasciare il passo, alla prova dei fatti, a esiti applicativi spesso deludenti, è comunque innegabile che, con una rapidità evolutiva senza precedenti, i sistemi di intelligenza artificiale si stanno vorticosamente implementando con modalità di sviluppo sempre più sofisticate soprattutto rispetto alla capacità di generare e creare contenuti originali, difficilmente distinguibili da quelli umani.
L’evoluzione dell’IA conversazionale
Il sistema GPT-3 (Generative Pre-Trained Transformer 3) sta rendendo possibile lo sviluppo di una rete neurale sempre più sofisticata in grado, tra l’altro, di risolvere problemi complessi mediante la formulazione di domande e risposte con frasi complete grazie alla notevole fluidità discorsiva del linguaggio computazionale che si perfeziona in costante auto-apprendimento. A riprova delle potenzialità tecnologiche (forse ancora neanche del tutto esplorate) di tale sistema, risulta emblematica la pubblicazione di un articolo intitolato “A robot wrote this entire article. Are you scared yet, human?”, pubblicato dal Guardian e scritto interamente di “pugno robotico” proprio tramite GPT-3.
Parimenti rilevante è altresì la progettazione della rete neurale multimodale DALL-E (implementata nella nuova versione DALL-E 2) che, ispirata al funzionamento dei neuroni celebrali, è in grado di processare, sempre in regime di auto-apprendimento, gli input provenienti dall’ambiente esterno mediante la combinazione tridimensionale di immagini e messaggi di testo associati a dettagliati riferimenti spazio-temporali e geografici, generando interpretazioni correlate a specifiche parole chiave elaborate grazie all’utilizzo di un sofisticato sistema di programmazione adattiva ad alta risoluzione.
Come funziona ChatGPT
Il modello ChatGPT sembra realizzare un ulteriore passo in avanti nel processo di perfezionamento tecnico dell’Intelligenza Artificiale, frutto di un intenso addestramento del sistema, parzialmente progettato sulla falsariga operativa dei cosiddetti assistenti virtuali, e sottoposto a costanti test di monitoraggio massivo per processare la mole significativa dei contenuti immessi online.
In buona sostanza, ChatGPT rappresenta un bot di ultima generazione, progettato per formulare risposte complesse simili a quelle umane.
Dialogare con un’intelligenza artificiale è sempre più facile: ecco perché inizia una nuova era
Il sistema opera in regime di apprendimento automatico, imparando costantemente dagli “input” provenienti dall’ambiente esterno, anche se in realtà, sono ancora notevoli i margini di errore segnalati nella formulazione di risposte imprecise (o addirittura completamente sbagliate, vedi errori di calcolo grossolani o fattuali), comunque prive della capacità di comprendere appieno le specifiche sfumature di significato sottese ad una tipica conversazione umana.
Se si osserva il fenomeno da un diverso punto di vista, però, tracciando un orizzonte temporale di medio-lungo termine nello sviluppo predittivo del sistema, già ora ChatGPT può essere considerato un risultato concreto dalle indubbie potenzialità applicative, come primo modello di bot conversazionale, verosimilmente destinato ad un progressivo miglioramento determinato dal costante perfezionamento tecnico della sua architettura attuale, come prospettiva tecnologica inimmaginabile nel recente passato.
ChatGPT rappresenta il primato definitivo dell’intelligenza artificiale?
In tale peculiare scenario, pertanto, il lancio di ChatGPT potrebbe rappresentare l’epilogo evolutivo del primato definitivo dell’Intelligenza Artificiale, dando vita alla configurazione di un nuovo ambiente digitale, animato da svariati chatbot persino in grado di sostituire le tipiche funzionalità dei tradizionali motori di ricerca, al netto delle fisiologiche “falle” tecniche attualmente riscontrabili.
Non sorprende pertanto che il “colosso” Google, ad esempio, sia impegnato da tempo in prima linea nell’implementazione del suo modello sperimentale LaMDA, basato sull’architettura neurale Transformer al fine di migliorare i risultati di ricerca grazie al software “BERT” (Bidirectional Encoder Representations from Transformers), con l’intento di ottimizzare la codifica delle query di ricerca, grazie alla capacità di leggere le specifiche sfumature conversazionali del linguaggio generato dagli utenti.
Le criticità etiche che preoccupano
Restano sullo sfondo una serie di rilevanti preoccupazioni – soprattutto etiche – derivanti dal generale sviluppo dei sistemi di Intelligenza Artificiale, alla luce di alcuni studi che rilevano il rischio di una possibile codificazione nascosta di pregiudizi associati a informazioni discriminatorie (etniche, religiose, di genere, ecc.), che necessitano sempre di una costante supervisione umana nella programmazione delle applicazioni per ridurre l’incidenza negativa di tali rischi, tenuto conto di una serie di evidenze sui possibili effetti collaterali prodotti dalla tecnologia IA.
La diffusione di “testi convincenti simili a quelli umani”, generati dai sistemi di Intelligenza Artificiale, oltre all’eventualità, tutt’altro che aleatoria, di imporre un linguaggio universale “dominante” corrispondente al modello lessicale tecnologicamente processato senza riuscire a “catturare” la profondità delle sfumature peculiari della conversazione dialogica umana, potrebbe inoltre favorire la circolazione di campagne di disinformazione online, anche mediante la diffusione di foto e video fuorvianti, in grado di destabilizzare l’opinione pubblica e compromettere la tenuta generale della società.
Internet rigurgiterà di testi e immagini “artificiali”
I modelli linguistici di grandi dimensioni vengono addestrati su set di dati costruiti raschiando Internet alla ricerca di testi, tra cui tutte le cose tossiche, sciocche, false e dannose che gli esseri umani hanno scritto online. I modelli AI finiti rigurgitano queste falsità come fatti e i loro risultati vengono diffusi ovunque in rete. Le aziende tecnologiche setacciano di nuovo Internet, raccogliendo testi scritti dall’IA che usano per addestrare modelli più grandi e più convincenti, che gli umani possono usare per generare ancora più assurdità prima di essere raschiati ancora e ancora, ad nauseam.
Questo problema – l’intelligenza artificiale che si alimenta da sola e produce risultati sempre più inquinati – si estende anche alle immagini. “Internet è ormai perennemente contaminato da immagini prodotte dall’IA”, ha dichiarato Mike Cook, ricercatore di IA presso il King’s College di Londra, al collega Will Douglas Heaven nel suo nuovo articolo sul futuro dei modelli di IA generativa.
“Le immagini che abbiamo realizzato nel 2022 faranno parte di qualsiasi modello realizzato d’ora in poi”. Idem per i testi, ben presto.
In futuro sarà sempre più difficile trovare dati di addestramento di buona qualità e garantiti dall’AI, afferma Daphne Ippolito, ricercatrice senior presso Google Brain, l’unità di ricerca dell’azienda per l’apprendimento profondo. Se vogliamo evitare che i futuri modelli di IA abbiano pregiudizi e falsità incorporati all’ennesima potenza, non sarà più sufficiente raccogliere testo alla cieca da Internet.
“È davvero importante valutare se dobbiamo addestrarci sulla totalità di Internet o se ci sono modi per filtrare le cose di alta qualità che ci daranno il tipo di modello linguistico che vogliamo”, dice Ippolito.
La creazione di strumenti per individuare il testo generato dall’intelligenza artificiale diventerà cruciale quando le persone cercheranno inevitabilmente di presentare documenti scientifici o articoli accademici scritti dall’intelligenza artificiale, o di usare l’intelligenza artificiale per creare fake news o disinformazione.
Gli strumenti tecnici possono aiutare, ma anche gli esseri umani devono diventare più esperti.
Ippolito sostiene che ci sono alcuni segni rivelatori di un testo generato dall’IA. Gli esseri umani sono scrittori disordinati. I nostri testi sono pieni di errori di battitura e di gergo e la ricerca di questo tipo di errori e di sottili sfumature è un buon modo per identificare un testo scritto da un umano. Al contrario, i modelli linguistici di grandi dimensioni funzionano prevedendo la parola successiva in una frase ed è più probabile che usino parole comuni come “il”, “è” o “è” invece di parole strane e rare. E sebbene non sbaglino quasi mai le parole, capita che sbaglino qualcosa. Ippolito dice che le persone dovrebbero prestare attenzione a sottili incongruenze o errori fattuali in testi che sono presentati come fatti, per esempio.
Conclusioni
È quindi opportuno cedere il passo al primato dell’intelligenza artificiale, delegando alle tecnologie il compito di assolvere alla generalità delle funzioni che hanno sempre presupposto la centralità dell’essere umano, come fattore decisivo per il raggiungimento delle svariate tappe di sviluppo che hanno lasciato un segno indelebile nel progresso evolutivo della storia?
Rispetto al passato, l’intelligenza artificiale potrebbe sostituire l’Intelligenza Umana, facendosi portatrice di ineguagliabili capacità di definitiva superiorità cognitiva? Sta davvero prendendo forma una nuova inedita era tecnologica “transumana” del tutto recisa dal tradizionale approccio umano-centrico su cui si fonda l’attuale società?
Molte domande, poche risposte. Su tutte però prevale una risposta possibile, a monte, che richiama una necessaria ripresa del ruolo dell’umano come dovrà sviluppare competenze adatte a ripensare il proprio ruolo e arginare le distorsioni indotte dall’AI.