L’avvento di ChatGPT rischia di peggiorare il lato oscuro della rete, già caratterizzato dalla crescente circolazione di notizie false, incomplete e fuorvianti (in larga parte provenienti da fonti “fai da te”, non autorevoli e di stampo complottistico), da cui discende la proliferazione di contenuti “polarizzati”, divisivi, violenti, esasperati e aggressivi.
Se, infatti, già lo scenario odierno non risulta particolarmente rassicurante rispetto al concreto pericolo di informazioni “tossiche” veicolate online, con le IA generative, secondo il New York Times, le cose non potranno che peggiorare.
La disinformazione fuori controllo con ChatGPT
A riprova delle preoccupanti evidenze descritte, il citato articolo menziona la pubblicazione di un interessante studio di ricerca dedicato ad approfondire le anomalie applicative dei chatbot di Intelligenza Artificiale, al punto da ipotizzare il rischio generalizzato di una disinformazione massiva fuori controllo, resa “meno costosa” e “più facile da produrre” grazie al perfezionamento algoritmico della “Generative AI” in grado di creare – tra l’altro – anche mediante sofisticati modelli operativi di auto-apprendimento, “testi convincenti simili a quelli umani”, che però potrebbero nascondere la codificazione di pregiudizi e di “B” difficilmente individuabili dopo aver immesso online le relative informazioni per innescare un dibattito inquinato da contenuti incompleti e inappropriati, pur risultando all’apparenza del tutto persuasivi e persino autorevoli.
In questo senso, al netto dell’atteggiamento incondizionato di entusiasmo iniziale alimentato, lungo la scia di un fervente ottimismo tecnologico, dal recente lancio sperimentale del modello ChatGPT, persino ormai comunemente considerato l’emblema del primato evolutivo raggiunto dall’Intelligenza Artificiale, occorre una riflessione attenta, particolareggiata e prudente su tali implicazioni negative.
ChatGPT e la gendenza a fornire risposte basate su idee false e fuorvianti
Entrando nel merito di alcuni allarmanti dati richiamati anche dal “NYT”, si evince, ad esempio, la tendenza di ChatGPT a incentivare la disinformazione mediante la formulazione di “risposte basate su idee false e fuorvianti” ravvisata l’80% dei casi monitorati (rispetto alla raccolta delle principali fake news selezionate dal database “Misinformation Fingerprints”), a dimostrazione dell’esistenza di un grave problema, peraltro, verosimilmente destinato ulteriormente ad acuire in via esponenziale le criticità configurabili nell’imminente futuro.
Se, infatti, la diffusione – anche intenzionale – di notizie incomplete, false, distorte e inesatte artatamente prodotte per influenzare l’opinione pubblica ha da sempre rappresentato un fenomeno fisiologicamente insito nella condotta umana risalente ad epoche assai remote della storia, senz’altro anteriori all’avvento di Internet, sono i timori legati alla proliferazione quantitativa delle fake news generate dallo sviluppo di algoritmi tecnologici sempre più complessi e sofisticati (come peculiare specificità dell’attuale era contemporanea che non ha precedenti nel passato), a rendere decisamente prioritaria la necessità di prestare centrale attenzione, con massima allerta, al complesso dei pericoli rilevati.
Il rischio di manipolazione ingannevole
Se sono, infatti, innegabili le potenzialità positive generate dall’Intelligenza Artificiale (nell’ambito delle sue svariate applicazioni algoritmiche sviluppate nel corso del tempo) per il progresso scientifico, sociale e culturale in grado di stimolare il benessere generale in condizioni di proficuo sviluppo sostenibile, è comunque importante continuare a sensibilizzare la collettività sui pericoli – potenziali e reali – provocati dall’impatto pervasivo delle tecnologie emergenti.
Al riguardo, si segnala, ad esempio, il rischio di manipolazione ingannevole – ancorché indirettamente – prodotta da ChatGPT sulla percezione (in)consapevole degli utenti persino per compiere scelte contrarie ai propri interessi, come possibile effetto collaterale connesso alle caratteristiche tecniche di tale bot conversazionale che, essendo particolarmente abile nell’imitazione estemporanea della scrittura umana mediante l’elaborazione immediata di risposte complete, fluenti, soddisfacenti, plausibili e articolate, frutto di un costante processo di addestramento in grado di processare la significativa mole di dati e contenuti immessi online, potrebbe massivamente fuorviare la corretta comprensione dei risultati associati alle ricerche sollecitate. E ciò, nonostante la policy sui contenuti adottata da OpenAI vieti espressamente l’utilizzo dei suoi prodotti, tra l’altro, per “promuovere la disonestà, ingannare o manipolare gli utenti, cercando di influenzare la politica”, con l’intento di evitare la diffusione di contenuti violenti, molesti e dannosi, identificabili anche grazie allo strumento di moderazione messo a disposizione degli sviluppatori e degli utenti al fine di verificarne la conformità alle regole d’uso vigenti. Invero, pur ritenendo apprezzabile un simile impegno, in quanto volto a disincentivare e scongiurare impieghi nocivi di ChatGPT, non bisogna tuttavia abbassare la guardia rispetto alle inedite prospettive realizzate dalla rapidità dell’innovazione digitale, assumendo un approccio di indagine oculata e avveduta, ben oltre la rigida chiusura mentale di contrarietà assoluta a qualsivoglia novità tecnologica.
Senza riportare le specifiche fonti da cui vengono estrapolate le relative informazioni, infatti, si tende a dare generalmente per scontata, anche laddove ciò non sia effettivamente riscontrabile né certa, la credibilità delle affermazioni riportate da ChatGPT, con ripercussioni negative soprattutto quando i soggetti che interagiscono con il sistema presentano bassi livelli di scolarizzazione e, pertanto, sono maggiormente indotti, sia pure senza intenzionalmente rendersene conto, a selezionare e diffondere contenuti “tossici”, suscettibili di influenzare larga parte dell’opinione pubblica.
Disinformazione e sicurezza nazionale
Di fronte al prospettato scenario, la crescita esponenziale della disinformazione, alimentata da sofisticati modelli linguistici di dialogo ottimizzato, potrebbe rappresentare una significativa minaccia nazionale al punto da compromettere la tenuta dei sistemi democratici sino ad erodere del tutto la stabilità della complessiva società, a maggior ragione in un momento storico in cui i chatbot IA conversazionali cominciano a diventare sempre più popolari a livello planetario (come dimostra la soglia di 100 milioni di utenti presto raggiunta da ChatGPT dopo soli 2 mesi dal suo lancio), pur spesso in mancanza da parte della generalità delle persone di un’esaustiva cognizione sulle insidie esistenti.
Mentre restano ancora senza adeguata risposta i numerosi interrogativi che il rapido sviluppo delle tecnologie emergenti pone, nel frattempo, seguendo il solco sperimentale tracciato da ChatGPT, si sta assistendo nella concreta prassi alla nascita di similari applicazioni basate sull’Intelligenza Artificiale, come, ad esempio, il chatbot IA “Bard” di Google (ancora in fase progettuale di perfezionamento), elaborato in rapida successione al recente lancio, in una nuova performante versione, del motore di ricerca Bing e del correlato browser Edge (resi operativi nell’ambito di una collaborazione intrapresa dal colosso Microsoft proprio con Open AI), per offrire agli utenti migliori esperienze di chat e di ricerca mediante la formulazione di risposte più complete con la possibilità di generare svariati contenuti, a riprova di un processo inarrestabile di evoluzione digitale ancora soltanto all’inizio di una profonda trasformazione in atto, destinata a mutare il complessivo settore tecnologico nel prossimo futuro.
Fake news, cosa ne pensa ChatGPT
Direttamente interpellato sulla questione ChatGPT, al quale, simulando un ipotetico scambio di opinioni, è stato chiesto se fosse a conoscenza dei rischi di fake news generati dalla piattaforma (resi noti dai numerosi articoli e studi qui menzionati) e se la sua applicazione possa favorire o aumentare la disinformazione, si riportato i principali passaggi argomentativi della conversazione dialogica instaurata sulla base delle relative risposte ottenute.
Dopo aver precisato che, come modello linguistico IA, non esprime opinioni o emozioni personali, limitandosi soltanto a fornire informazioni sul tema richiesto, ChatGPT riconosce la rilevanza della disinformazione come preoccupante fenomeno, in realtà non del tutto nuovo ma esistente da tempo nella storia umana, che oggi però diventa sempre più centrale a causa delle “gravi conseguenze” che la circolazione su vasta scala di informazioni false veicolate nell’ambiente digitale è in grado di provocare, incidendo negativamente sulla fiducia collettiva e sulla manipolazione dell’opinione pubblica con il rischio di indebolire la democrazia, al punto da riconoscere la necessità di adottare efficaci provvedimenti per affrontare tale problema. Pur escludendo l’intenzione di diffondere disinformazione tramite il suo bot conversazionale, ChatGPT ammette la possibilità di un nocivo e irresponsabile utilizzo di tale modello da parte degli utenti per veicolare contenuti falsi o fuorvianti anche mediante un’alterazione manipolata delle risposte elaborate. Per tale ragione, ChatGPT si impegna a svolgere un ruolo attivo nella lotta alla disinformazione esortando gli utenti ad assumere sempre un atteggiamento critico nei confronti di tutte le informazioni reperibili online, previa verifica della credibilità, della qualità e dell’accuratezza delle fonti di riferimento da cui proviene la notizia pubblicata, prima di condividerla o di prenderla in considerazione per orientare e influenzare la propria convinzione personale.
Conclusioni
In attesa di comprendere sino a quanto sarà possibile espandere l’impatto applicativo dei sistemi di Intelligenza Artificiale al punto da ipotizzare il definitivo superamento del tradizionale approccio umano-centrico con l’avvento di una nuova era tecnologica, sorge, come dilemma esistenziale, un annoso ma sempre attuale interrogativo di fondo: davvero la dilagante diffusione della disinformazione può ritenersi la diretta conseguenza dell’attuale metamorfosi negativa della Rete come risvolto tecnico del suo lato oscuro, o piuttosto rappresenta una naturale e indefettibile manifestazione connaturata all’indole umana che, ancora una volta, come spesso accaduto durante la storia del passato, tende a vanificare nel lungo termine le potenzialità positive di qualsivoglia ingegnosa invenzione, destinata quindi di fatto a deteriorarsi a causa delle finalità dannose perseguite nell’esercizio dell’autodeterminazione individuale e del libero arbitrio?