Sta’ a vedere che proprio l’utilizzo dell’IA generativa, fonte di preoccupazione e inquietudine in tutto il mondo anche per la sua capacità di incrementare a dismisura la fabbricazione e la diffusione di disinformazione, può dare un contributo decisivo a smentire le tante teorie del complotto anche mediante essa create e alimentate.
Dialoghi personalizzati con l’IA per smontare le convinzioni dei complottisti: lo studio
Lo dimostrerebbe uno studio, pubblicato su Science e condotto da Thomas H. Costello (scuola di management Sloan del MIT di Cambridge, dipartimento di psicologia della Università americana di Washington), Gordon Pennycook (Dipartimento di Psicologia, Cornell University di Ithaca) e David Rand (scuola di management Sloan del MIT di Cambridge).
Gli studiosi sono partiti considerando che, secondo le spiegazioni più in voga, le teorie del complotto sono persistenti in quanto soddisfano importanti esigenze psicologiche, resistendo così alle controprove. Ma, a loro avviso, i ripetuti fallimenti nel loro smascheramento (debunking) potrebbero essere dovuti al fatto che le controprove non sono sufficientemente convincenti e personalizzate.
Gli esperti, in questa ricerca, hanno quindi fatto ricorso all’IA generativa per testare 2190 aderenti alle teorie del complotto con dialoghi personalizzati basati su prove con GPT-4 Turbo.
Ebbene, ciò ha ridotto la convinzione dei “credenti” di circa il 20%, anche tra i partecipanti con convinzioni profondamente radicate, e l’effetto è stato rilevato anche dopo due mesi, dimostrando la sua perduranza nel tempo per un’ampia gamma di teorie del complotto: dalle cospirazioni sull’assassinio di John Kennedy, sugli alieni e sugli Illuminati, a quelle relative al COVID-19 e alle elezioni presidenziali statunitensi del 2020.
Un fact-checker professionista ha valutato un campione di 128 affermazioni fatte dall’IA: il 99,2% era vero, lo 0,8% era fuorviante e nessuna asserzione era falsa. Ancora, si è avuta anche la riduzione delle convinzioni in cospirazioni non correlate con quelle attenzionate, e una diminuzione generale della visione del mondo cospirazionista con maggiori intenzioni di “convertire altri credenti”. In sostanza, lo studio mette in evidenza che molte di queste persone possono cambiare idea quando vengono presentate loro prove convincenti.
Il potere persuasivo degli LLM contro il dilagare delle teorie del complotto
Tale assunto dipinge un quadro sorprendentemente ottimistico del ragionamento umano. I bisogni e le motivazioni psicologiche non rendono assolutamente impermeabili i cospirazionisti alle prove: esse devono semplicemente essere quelle giuste per convincerli. In pratica, dimostrando il potere persuasivo degli LLM (modelli linguistici di grandi dimensioni, large language models), i risultati certificano sia gli impatti positivi dell’IA generativa quando implementata in modo responsabile, sia l’importanza di ridurre al minimo le opportunità che essa venga utilizzata in modo irresponsabile.
Partiamo da un dato di fatto: la fede nelle teorie del complotto è dilagante, in particolare negli Stati Uniti, dove fino al 50 percento della popolazione crederebbe in almeno una di esse.
Quando una persona ne sfida un’altra, convinta sostenitrice della cospirazione, con fatti e prove, questa di solito raddoppia la posta. Secondo gli psicologi in ragione di un ragionamento motivato, ovvero un modo distorto di elaborare le informazioni. Il ragionamento motivato (bias del ragionamento motivazionale) è una risposta cognitiva e sociale in cui gli individui, consapevolmente o inconsapevolmente, permettono che i pregiudizi motivazionali carichi di emozioni influenzino il modo in cui vengono percepite le nuove informazioni. Gli individui tendono a favorire le prove che coincidono con le loro convinzioni attuali e a rifiutare le nuove informazioni che le contraddicono, nonostante le prove contrarie.
Nella ricerca americana della quale parliamo, un chatbot di IA generativa ha intrattenuto conversazioni con persone che credevano ad almeno una teoria del complotto.
Il segreto del successo del chatbot
Il segreto del suo successo: il chatbot, accedendo a grandi quantità di informazioni su un’enorme gamma di argomenti, poteva adattare con precisione i suoi contro argomenti a ciascun individuo, un approccio quindi molto più potente ed efficace. Gli studiosi affermano che, quando ci si confronta con fatti che sfidano una convinzione profondamente radicata, le persone spesso cercano di preservarla piuttosto che aggiornare le proprie convinzioni precedenti alla luce delle nuove prove.
Il problema, secondo il professore Costello, coautore dello studio, è che “le teorie del complotto variano molto da persona a persona e sono piuttosto eterogenee. Le persone credono a un’ampia gamma di esse e le prove specifiche che esse usano per supportare anche una singola cospirazione possono differire da una persona all’altra. Quindi i tentativi di smentita in cui si cerca di argomentare ampiamente contro una teoria del complotto non saranno efficaci perché le persone hanno diverse versioni di quella cospirazione nella loro testa”.
Un chatbot IA, invece, è in grado di adattare gli sforzi di debunking (il debunker è una persona che mette in dubbio o smaschera ciarlatanerie, bufale, affermazioni o notizie false, esagerate, antiscientifiche, dubbie o tendenziose) a quelle diverse versioni di una cospirazione. Quindi, in teoria, un chatbot potrebbe rivelarsi più efficace nel distogliere qualcuno dalla sua teoria della cospirazione preferita.
Come è stato condotto lo studio
I partecipanti hanno avuto diverse “conversazioni” personali con un GPT-4 Turbo in cui hanno condiviso la loro teoria del complotto preferita e le prove che ritenevano supportassero tale convinzione. L’LLM avrebbe risposto offrendo controargomentazioni fattuali e basate su prove, adattate al singolo partecipante. Le risposte di GPT-4 Turbo sono state verificate: il 99,2 % delle affermazioni fatte erano vere, lo 0,8 percento fuorviante, nessuna falsa.
I partecipanti hanno prima risposto a una serie di domande aperte sulle teorie del complotto in cui credevano fermamente e sulle prove su cui si basavano per supportare tali convinzioni. L’IA ha quindi prodotto un riassunto di una sola frase di ciascuna convinzione, ad esempio “L’11 settembre è stato il frutto di una macchinazione interna agli USA per questo, questo e quest’altro“.
I partecipanti hanno valutato l’accuratezza di tale affermazione in base alle proprie convinzioni e hanno poi compilato un questionario su altre cospirazioni, sul loro atteggiamento verso esperti di fiducia, sull’IA, su altre persone e così via. Poi è stato il momento dei dialoghi individuali con il chatbot, che il team ha programmato per essere il più persuasivo possibile. Il chatbot aveva anche ricevuto le risposte aperte dei partecipanti, il che ha reso più facile adattare individualmente i suoi contro argomenti.
Un esempio di controargomentazione da parte di ChatGPT
Ad esempio, se qualcuno avesse pensato che l’11 settembre fosse stato frutto di una macchinazione interna agli USA e avesse citato come prova il fatto che il carburante per aerei che brucia non determina temperature tanto elevate da fondere l’acciaio, il chatbot avrebbe potuto ribattere con il rapporto del NIST (agenzia governativa che si occupa della gestione delle tecnologie) secondo il quale l’acciaio perde la sua resistenza a temperature molto più basse, sufficienti a indebolire le strutture delle torri fino a farle crollare.
Se ci fosse stato qualcuno che avesse basato la sua convinzione sulla macchinazione interna facendo riferimento alle demolizioni come prova, avrebbe ottenuto una risposta diversa, calibrata su tale congettura. I partecipanti hanno poi risposto allo stesso set di domande dopo aver dialogato per 8 minuti con il chatbot.
Ebbene, il confronto con il chatbot ha portato a una diminuzione del 20 percento delle convinzioni errate dei partecipanti, riduzione confermata due mesi dopo, quando i partecipanti sono stati nuovamente valutati. Secondo esperti terzi, si tratta di una differenza sostanziale rispetto al calo dell’1-6 % delle convinzioni ottenuto con altri interventi, questo perché le risposte fornite sono mirate e non generiche, uguali per tutti.
La ricerca di follow-up
Il team ha condotto una ricerca di follow-up, non ancora pubblicata, modificando il prompt per rinunciare alla creazione di un rapporto e presentare solo le controargomentazioni basate su prove fattuali: i risultati sono stati altrettanto forti. Che siano i fatti a essere determinanti nel cambiamento dei partecipanti è stato convalidato dai pessimi risultati ottenuti quando il team ha dato istruzioni al chatbot di non basarsi su di essi e sulle prove, ma solo sul rapporto. La ricerca ha anche svelato che le persone che abbracciano le teorie del complotto interagiscono volentieri con un chatbot di IA progettato per influenzare le loro convinzioni, e che altrettanto farebbero con chiunque. Nella stragrande maggioranza dei casi, invece, sono gli altri a sottrarsi al dialogo, ritenendolo inutile.
Ad avviso degli autori della ricerca, sarebbe quindi utile abbinare i risultati delle ricerche su internet sulle varie teorie complottistiche con riassunti di informazioni accurate generati dall’IA, oppure bot creati dagli stessi social media potrebbero rispondere agli utenti che condividono contenuti cospirativi.
Il caso del recente attentato a Donald Trump
Il chatbot ha avuto risultati meno positivi quando si è trattato del recente ferimento di Trump, dopo il quale sono emerse numerose teorie cospirative. Gli sono state fornite tutte le informazioni rilevanti e il contesto di cui aveva bisogno per smentire tali cospirazioni. Il team gli ha anche fornito capacità di motore di ricerca per cercare articoli di notizie e materiali online correlati al tentativo. I ricercatori hanno rilevato che l’azione del chatbot non è stata efficace quanto negli altri casi, tuttavia ha ridotto le cospirazioni di sei o sette punti su una scala da zero a 100. Ciò potrebbe essere stato determinato dalla scarsità delle informazioni fattuali subito dopo l’evento, con la conseguente carenza di materiale sul quale lavorare per il chatbot.
I dispensatori di disinformazione e la tecnica “Gish gallop”, che l’IA riesce a battere
H. Holden Thorp, caporedattore di Science, in un editoriale di commento alla ricerca, ha sottolineato che i dispensatori di disinformazione a volte usano la tecnica “Gish gallop” (“galoppata di Gish”, è una tattica retorica in cui un partecipante al dibattito seppellisce l’interlocutore sotto una lunga serie di falsità, travisamenti e argomentazioni scadenti impossibili da confutare mentre si discute. L’espressione è stata coniata nel 1994 dall’antropologa Eugenie Scotte e prende il nome dal creazionista Duane Gish, che la usava nei dibattiti con gli scienziati che sostenevano l’evoluzione). Gli esseri umani non sono in grado di rispondere a questo in modo efficace, non importa quanto abile possa essere il modo in cui ribattono. Ma l’LLM non può essere sopraffatto perché può citare controprove all’infinito. Sebbene sia forse scoraggiante che una macchina possa essere più brava di un essere umano a contrastare la disinformazione, il fatto che, in ultima analisi, siano le informazioni scientifiche a convincere è un sollievo.
Conclusioni
In conclusione, lo studio offre un contributo significativo e una modalità innovativa per contrastare la disinformazione e, in particolare, per smuovere i seguaci delle tante teorie del complotto dalle loro convinzioni. La chiosa della ricerca, da questo punto di vista, è abbastanza incoraggiante: “una conversazione relativamente breve con un modello di intelligenza artificiale generativa può produrre una diminuzione ampia e duratura delle credenze cospirazioniste, anche tra le persone nelle quali esse sono profondamente radicate. Può darsi che si sia dimostrato così difficile dissuaderle diversamente soltanto perché non hanno ricevuto prove contrarie sufficientemente valide. Ciò dipinge un quadro del ragionamento umano sorprendentemente ottimistico: persino la più profonda delle “tane del coniglio” può avere un’uscita. I cospirazionisti non sono necessariamente accecati da bisogni e motivazioni psicologiche: ci vuole solo un argomento veramente forte per riuscire a far loro mutare atteggiamento”.