Gli ultimi anni ci hanno abituato ad un ecosistema della disinformazione che si è fatto sempre più complesso e sempre più ricco di strategie che mettono insieme la componente sociale con la componente tecnologica.
Dalle troll farm, vere e proprie fabbriche di disinformazione e messaggi complottisti, alla proliferazione di utenti fake che diffondono notizie false nelle piattaforme come Twitter e Facebook fino ai canali che simulano una redazione giornalistica, mentre in realtà sono siti automatizzati che producono contenuti inquinanti attraverso un sistema complesso di copia e incolla da altre fonti, spesso altrettanto fake.
La propaganda politica e la disinformazione generata dall’IA
Con la sempre maggiore diffusione di tecnologie come ChatGPT e strumenti come Midjourney e DALL-E, l’intelligenza artificiale di massa è destinata a far compiere un enorme salto in avanti all’industria della disinformazione, soprattutto politica, con lo scopo di manipolare in prima battuta le elezioni, in seconda battuta la democrazia.
Negli ultimi tempi sono apparsi diversi documenti e grida di allarme che hanno posto all’attenzione dell’opinione pubblica digitale i pericoli di questo nuovo ecosistema disinformativo completamente automatizzato e sempre meno distinguibile dai contenuti prodotti dagli esseri umani, grazie alle performance dei Large Language Model, ovvero lo strumento algoritmico che sta alla base dei servizi di Open AI e di Google Bard.
A Chicago in occasione delle elezioni per il sindaco della città svolte ad aprile, un candidato si è lamentato che il suo avversario politico avesse utilizzato un tool di clonazione della voce per creare una sua falsa dichiarazione circolata via Twitter dove dava il proprio endorsement alle brutalità della polizia, affermazione politicamente rischiosa in una città con una forte cultura nera come Chicago. A Toronto, sempre durante l’elezione del sindaco avvenuta a giugno, Anthony Furey, candidato che aveva nel proprio programma elettorale una politica molto aggressiva verso i senzatetto, ha diffuso nel suo programma politico delle immagini fake costruite con Midjourney in cui si vedevano gruppi di homeless accampati nel centro città che era stata trasformata una tendopoli angosciante e distopica. In Nuova Zelanda lo scorso maggio un partito politico conservatore ha fatto circolare attraverso il proprio canale Instagram un’immagine artificiale ma notevolmente realistica di un furto cruento in una gioielleria per sottolineare l’aumento della microcriminalità cittadina. Tutti questi casi stanno a dimostrare che la politica – in particolare quella locale – ha cominciato a usare questi strumenti in maniera sistematica.
Distinguere il vero dal falso non sarà più possibile?
Sicuramente perché il costo di produzione dei contenuti è piuttosto basso, ma un effetto collaterale di questa strategia è quello di creare un ambiente comunicativo in cui non è più possibile distinguere i contenuti veri da quelli falsi. Il panorama diviene così complesso che è possibile avere immagini realistiche di situazioni vere, e immagini realistiche di situazioni false, mescolando vero e falso senza soluzione di continuità spesso con effetti involontariamente comici. Come le immagini del programma di Furey, candidato sindaco di Toronto, in cui accanto a illustrazioni distopiche, c’erano anche illustrazioni tradizionali ma con palesi errori, come la donna che ascolta rapita un discorso ma che ha ben tre braccia conserte. Sul delicato rapporto fra informazione, politica e intelligenza artificiale ha avuto modo di esprimersi anche Sam Altman, CEO di OpenAI la compagnia dietro ChatGPT, il quale davanti alla commissione del Senato degli Stati Uniti per la regolamentazione dell’intelligenza artificiale, ha dichiarato il proprio nervosismo sull’uso di tali tecnologie nella prossima tornata elettorale presidenziale.
Alla base di tale inquietudine, c’è il fatto che l’IA può cambiare profondamente le caratteristiche della propaganda politica: da una politica digitale basata su un messaggio profilato per specifici segmenti di persone, si può passare ad un messaggio politico segmentato su un singolo individuo, grazie alle capacità di cui sono dotate la nuova generazione di chatbot.
Disinformazione e programmatic advertising
Come se ciò non bastasse, anche il sistema dell’advertising digitale sta involontariamente aiutando la circolazione di contenuti digitali creati dalle IA, spesso di scarsa qualità informativa.
È uno dei risultati a cui è giunto il Newsguard Misinformation Monitor di giugno 2023. Per redigere il report, Newsguard ha elaborato una nuova categoria di siti internet detti UAIN (Unreliable Artificial Intelligence-generated News) che hanno le seguenti caratteristiche: i contenuti sono indiscutibilmente prodotti da IA, i contenuti non sono sottoposti a supervisione umana, il sito e i contenuti si presentano come prodotti da giornalisti umani, il sito non dichiara che i contenuti sono prodotti da IA.
I siti UAIN sono supportati dal programmatic advertising, ovvero dalla raccolta pubblicitaria completamente automatizzata tramite cookies, e grazie a questa strategia in essi appaiono pubblicità digitali di alcuni dei più grandi marchi del mondo dell’elettronica di consumo, della banda larga, della moda, dell’abbigliamento sportivo, delle banche e dei servizi finanziari, delle società di streaming eccetera.
Il principale fornitore – suo malgrado – di inserzioni pubblicitarie nei siti UAIN è Google Ads, la più grande piattaforma pubblicitaria online: ben 356 su 396 annunci sono stati inseriti da Google in questi siti (pari al 90%). I siti UAIN non necessariamente diffondono disinformazione, anche se in alcuni casi hanno promosso cure sanitarie fasulle. Sono però siti che fanno circolare contenuti di scarsa qualità con una capacità produttiva davvero impressionante. Per esempio, World Today News produce una media di 1200 articoli al giorno: per avere un termine di confronto il New York Times ne produce 150 al giorno. Altri siti UAIN hanno una simile capacità produttiva: nel periodo sottoposto a rilevazione (9-15 giugno 2023), Alaska Commons ha prodotto 5.867 articoli, mentre Time News ha prodotto 6.108 articoli. La capacità produttiva è facilmente spiegabile: da un lato costruiscono contenuti originali grazie all’aggregazione di testi attraverso l’uso di intelligenza artificiale, altre volte l’IA viene usata per riscrivere articoli presi da altre fonti giornalistiche senza citare la fonte.
I lettori e i contenuti di scarsa qualità
La pericolosità di questi siti è dovuta al fatto che non solo non hanno problemi di sostenibilità economica, dato che il processo di produzione di contenuti e di raccolta pubblicitaria è completamente automatizzato, ma anche perché i lettori di questi siti non sembrano curarsi del fatto che stanno leggendo contenuti di scarsa qualità, situazione che potrebbe avere effetti collaterali sul medio periodo.
Proprio su questo punto sono piuttosto delicati i dati che sono stati raccolti da una ricerca apparsa su Science Advances, avente lo scopo di studiare come i lettori di contenuti prodotti dalle IA valutino questi articoli. Lo studio ha coinvolto 697 persone alle quali è stato chiesto di valutare una serie di contenuti strutturati come tweet secondo due distinti parametri. Per prima cosa l’origine di tali contenuti, se organici o prodotti con GPT-3 (uno dei motori algoritmici di ChatGPT), in secondo luogo l’attendibilità, se affidabili o meno, su alcuni argomenti specifici: cambiamenti climatici, sicurezza dei vaccini, teoria dell’evoluzione, COVID-19, sicurezza delle mascherine, vaccini e autismo, trattamenti omeopatici per cancro, Terra piatta, tecnologia 5G e COVID-19, antibiotici e infezioni virali, COVID-19 e influenza.
In questo modo le persone potevano giudicare i tweet nel modo seguente: organic true (scritto da umani e contenuti veri), synthetic true (scritto da GPT-3 e contenuti veri), organic false (scritto da umani e contenuti falsi), synthetic false (scritto da GPT-3 e contenuti falsi).
Il risultato è stato piuttosto impressionante. I contenuti scritti dalle IA sono percepiti come indistinguibili dai contenuti prodotti da esseri umani, inoltre le persone si fidano senza particolari problemi dei contenuti prodotti da GPT-3. La conseguenza di ciò è che i contenuti prodotti con GPT-3 hanno un forte potenziale nell’aumentare circolazione sia della disinformazione che dell’informazione, grazie alla fiducia che viene ad essi attribuita da parte delle persone.
Ovviamente questo è solo un esperimento e la base campionaria è piuttosto circoscritta, ma dà sicuramente delle indicazioni con cui dovremo fare i conti nei prossimi anni.
Conclusioni
Nel prossimo futuro l’ecosistema digitale dell’informazione – e della disinformazione – diventerà sempre più abitato da attori che potranno essere sociali (persone e gruppi di persone), tecnici (tecnologie) e sociotecnici (un ibrido fra i due), e la nostra capacità di fruire contenuti informativi di qualità non potrà più solo avvalersi delle nostre capacità, ma avremo bisogno di affiancarci a sistemi di intelligenza artificiale che ci diano una mano per orientarci in questo oceano di informazioni sempre più complesse, sempre più automatizzate.