Fake news e deep fake: la comprensione di questi fenomeni è fondamentale, considerato il loro impatto sull’opinione pubblica, sulla libertà di informazione e sull’assetto democratico. Basti pensare che, dal 2013, il World Economic Forum (WEF) ha posto la disinformazione online al centro dei rischi tecnologici e geopolitici mondiali, insieme al terrorismo e agli attacchi informatici.
Da tempo la comunità scientifica sta indagando sul tema per individuarne le cause e proporre le opportune misure di contrasto.
In particolare, recenti studi scientifici hanno messo in luce la sfera emozionale della disinformazione, identificando i processi cognitivi che rendono gli individui più inclini all’influenza dei contenuti fake: bias di conferma, camere d’eco, esposizione selettiva (si vedano, sul punto, Lazer et al., 2018; Pennycook & Rand, 2018; Spohr, 2017).
Prima di inoltrarci nella discussione, è opportuno fare qualche considerazione preliminare.
The dark side of the Web
Iniziamo dalle “fake news”. Cosa sono? La ricerca le ha definite «notizie intenzionalmente e verificabilmente false, tese ad ingannare i lettori» (Allcott e Gentzkow 2017), imitando il formato di notizie reali per cercare di apparire come tali (Tandoc et al., 2017).
Fin qui, nessuna novità. L’uso delle fake news risale ai tempi della comunicazione analogica. Quel che cambia, oggi, è il mezzo di circolazione: l’effetto virale della rete ne amplifica la diffusione, a velocità e volumi inediti, attraverso i like, gli share e, in generale, la spinta alla condivisione.
E veniamo alla nuova generazione di fake news prodotte dall’intelligenza artificiale, i deepfake. Una tecnologia nata nell’alveo della pornografia che ha investito poi anche in altri ambiti, tra cui quello politico, con implicazioni di ben altro valore e portata. Da Gal Gadot a Barack Obama, da Mark Zuckerberg a Matteo Renzi, nei mesi scorsi abbiamo assistito a video manipolati, tramite tecniche di intelligenza artificiale, in cui i volti di personaggi noti – ex presidenti, politici e celebrità di Hollywood – vengono sostituiti con quelli di altre persone in maniera così sopraffina da apparire autentici.
Il ruolo dei bias cognitivi
Cosa è reale e cosa non lo è? Difficile distinguere. In rete, un’enorme quantità di informazioni compete con la nostra (limitata) attenzione. Ragion per cui, spesso per semplicità o per necessità, valutiamo in maniera automatica le informazioni in nostro possesso, facendo ricorso a talune scorciatoie mentali – le ben note euristiche – postulate dai due pionieri della Behavioral Economics, Amos Tversky e Daniel Kahneman.
Pur riducendo i tempi e i costi dell’elaborazione di informazioni, queste strategie cognitive possono indurci a compiere degli errori sistematici, i cosiddetti bias. In particolare, il bias di conferma – la tendenza umana a cercare informazioni già in accordo con il proprio sistema di credenze – gioca un ruolo cruciale nella selezione e diffusione dei contenuti (anche fake) online.
Vedere per credere, l’antico detto ce lo insegna, ma la verità è che crediamo a ciò che vediamo. Cerchiamo informazioni che sostengono ciò a cui vogliamo credere e ignoriamo il resto.
È cosi che si creano le cosiddette “camere d’eco“, ossia gruppi di utenti polarizzati intorno ad una visione comune del mondo (si vedano Zollo, 2019; Zimmer et al, 2019; Del Vicario et al, 2019; Quattrociocchi et al, 2016). Immersi in queste ‘bolle’ informative ed esposti solo a contenuti in linea con le proprie convinzioni preesistenti, gli utenti continuano a rafforzare la propria visione, ignorando le informazioni discordanti (Spohr, 2017).
In proposito, le teorie dell’esposizione selettiva e della dissonanza cognitiva possono aiutarci a fare chiarezza. La prima, definita come il processo attraverso il quale le convinzioni preesistenti di un individuo lo guidano nella selezione di nuove informazioni, è stata ampiamente studiata in termini di tipologia dei contenuti ricercati e fonti di informazione scelte, quali giornali, televisione o Internet (si vedano Stroud, 2008; Hameleers et al., 2019).
Fake news sui social: il ruolo della fonte
Kim & Dennis (2019) hanno riscontrato che il formato di presentazione delle fake news sui social media influisce sulla loro credibilità e sulla tendenza alla conferma; ad esempio, evidenziare la fonte di un articolo prima del titolo ha aumentato il “filtro” dello scetticismo degli utenti. E, dal momento che il consumo di notizie si rivela, spesso, non consapevole, l’aumento dello scetticismo potrebbe rappresentare un buon passo avanti.
In effetti, nell’utilizzo dei social media, che avviene principalmente per scopi edonistici – quali ricerca di intrattenimento e connessione con gli amici – gli utenti sono meno attenti (Thatcher et al. 2018) e hanno una minore probabilità di considerare l’informazione in modo critico.
Inoltre è stato dimostrato che, al cospetto di notizie e contenuti che “sfidano” le proprie convinzioni preesistenti, gli individui sperimentano una vera e propria dissonanza cognitiva (Festinger 1957; Mills 1999). Sulla base di tale meccanismo psicologico, le informazioni aderenti al proprio sistema di credenze sono erroneamente valutate come più credibili e affidabili rispetto alle informazioni non confermate (Knobloch-Westerwick et al., 2017). La selezione di punti di vista rinforzanti soddisfa, pertanto, il proprio bisogno di mantenere un’immagine coerente di sé (Festinger, 1957).
La disinformazione fa leva sulla pigrizia
Diversamente, Pennycook & Rand (2018) suggeriscono che la suscettibilità individuale alle notizie false sia guidata più da un pensiero “pigro” – ossia dalla mancanza di pensiero analitico – che da un pensiero “di parte”: le persone cadono preda delle varie forme di disinformazione «perché non riescono a pensare, e non perché pensano in modo motivato o identitario-protettivo».
Infine, si sa, nell’era dei big data le nostre preferenze vengono costantemente tracciate e ci vengono suggeriti contenuti personalizzati, in linea con le nostre ricerche; il che rischia di provocare un vero e proprio circolo vizioso: più si cerca la conferma di un’opinione, più si troveranno informazioni a supporto della stessa.
Come correggere la disinformazione
Dalla Brexit ai vaccini, dalla scienza alla pseudoscienza, numerose evidenze empiriche (Zollo, 2019) confermano che la diffusione della disinformazione sui social media è direttamente correlata alla polarizzazione degli utenti.
Considerato il ruolo chiave del bias di conferma, alcuni ricercatori (Del Vicario et al., 2018) hanno cercato di identificare i contenuti polarizzanti sui social media, in modo da “predire” le future fake news. In questo contesto, una letteratura in crescita suggerisce il ricorso a tentativi correttivi come le pratiche di debunking o fast checking (Hameleers, 2019).
Altri studi, tuttavia, sostengono che il controllo dei fatti sia efficace solo per gli utenti con più elevati livelli di capacità cognitiva; per tutti gli altri, la correzione potrebbe avere un effetto boomerang con il rischio di rafforzare le loro credenze preesistenti (Tandoc, 2019; Thorson, 2016)[17]. Maggiore è il coinvolgimento dell’utente, dunque, maggiore sarà la sua resistenza.
«L’istituzione di un sistema che distingue l’informazione falsa da quella vera […] crea un’ulteriore polarizzazione che è la causa stessa delle false informazioni» – commenta Walter Quattrociocchi – «l’utente che aveva pregiudizi continuerà a rifiutare la figura istituzionale o giornalistica che diffonde una narrazione percepita come antagonista».
È chiaro a tutti, ormai, come la più grande minaccia dei fake in rete non siano i fake in sé. Il rischio più grave è la facilità con cui la tecnologia può far apparire reali i contenuti falsi. Al riguardo, i social media sono uno strumento indubbiamente utile per informare, ma hanno anche il potere di disinformare, manipolare e controllare l’opinione pubblica.
Per citare Peter Haberle, uno dei più autorevoli costituzionalisti europei, «la pluralità delle verità, il fallire, l’errare umano […], tutto ciò non può indurci a congedarci dal concetto di verità».
Del resto, «dubium initium sapientiae est». Pertanto, non credete a tutto ciò che vedete. Parola di scienziato.
Bibliografia
- Allen, R. (2017). “What happens online in 60 seconds?” https://www.smartinsights.com/internet-marketing-statistics/happens-online-60-seconds/
- WEF. (2013). World economic forum: Outlook on the global agenda 2014. http://reports.weforum.org/outlook-14/
- Lazer, D. M. J., Baum, M. A., Benkler, Y., Berinsky, A. J., Greenhill, K. M., Menczer, F., Zittrain, J. L. (2018). The science of fake news. Science, 359(6380), pp. 1094–1096. Spohr, D. (2017). Fake news and ideological polarization: Filter bubbles and selective exposure on social media. Business Information Review, 34(3), pp. 150–160.
- Allcott, H., and Gentzkow, M. 2017. “Social Media and Fake News in the 2016 Election,” Journal of Economic Perspectives (31:2), pp. 211-236.
- Tandoc, E. (2019) The facts of fake news: A research review, Sociology Compass, 13.
- Per un approfondimento, si veda Tversky, A., Kahneman, D., (1974). Judgement under Uncertainty: Heuristics and Biases. ↑
- Zollo, F. (2019). Dealing with digital misinformation: a polarised context of narratives and tribes, EFSA Journal. Del Vicario, M., Gaito, S., Quattrociocchi, W., Zignani, M., Zollo, F. (2019). News consumption during the Italian Referendum: A cross-platform analysis on Facebook and Twitter. Quattrociocchi, W., Scala, A., Sunstein, C. R. (2016) Echo chambers on Facebook. Dubois, E., Blank, G. (2018). The echo chamber is overstated: The moderating effect of political interest and diverse media. Information, Communication & Society, 21(5)
- Stroud, N. J. (2008). Media use and political predispositions: Revisiting the concept of selective exposure. Political Behavior, 30, 341-377. Hameleers, M., Van der Meer, T. G. (2019). Misinformation and Polarization in a High-Choice Media Environment: How Effective Are Political Fact-Checkers?. Communication Research.
- Kim, A., Dennis, A. R. (2019). Say Who? The effect of Presentation Format and Source Rating on Fake News in Social Media, MIS Quarterly Vol. 43 No. 3
- Thatcher, J. B., Wright, R. T., Sun, H., Zagenczyk, T. J., and Klein, R. 2018. “Mindfulness in Information Technology Use: Definitions, Distinctions, and a New Measure,” MIS Quarterly (42:3).
- Festinger, L. (1957). A theory of cognitive dissonance. Evanston, IL: Row, Peterson.Mills, J. (1999). “Improving the 1957 Version of Dissonance Theory,” in Cognitive Dissonance: Progress on a Pivotal Theory in Social Psychology, J. Mills and E. Harmon-Jones (eds.), Washington, DC: American Psychological Association
- Knobloch-Westerwick, S., Mothes, C., & Polavin, N. (2017). Confirmation bias, ingroup bias, and negativity bias in selective exposure to political information. Communication Research.
- Pennycook, G., & Rand, D. G. (2018). Lazy, not biased: Susceptibility to partisan fake news is better explained by lack of reasoning than by motivated reasoning. Cognition, 188, pp. 39–50. In particolare, gli individui con un punteggio più alto nel pensiero analitico (misurato utilizzando il Cognitive Reflection Test) risultavano «più in grado di discernere le notizie reali dalle notizie false indipendentemente dalla loro ideologia politica».
- Zollo, F. (2019). Dealing with digital misinformation: a polarised context of narratives and tribes, EFSA Journal.
- Del Vicario, M., Quattrociocchi, W., Scala, A., Zollo, F. Polarization and Fake News: Early Warning of Potential Misinformation Targets.
- Hameleers, M., Van der Meer, T. G. (2019). Misinformation and Polarization in a High-Choice Media Environment: How Effective Are Political Fact-Checkers?. Communication Research.
- Tandoc, E. (2019) The facts of fake news: A research review, Sociology Compass, 13. Thorson, E. (2016). Belief echoes: The persistent effects of corrected misinformation. Political Communication, 33(3).
- News consumption during the Italian Referendum: A cross-platform analysis on Facebook and Twitter
- P. Haberle, Wahrheitsprobleme im Wefassungsstaat, (1995), tr. it. Diritto e verità, Torino, 2000, 99 ss.