Siamo abituati a pensare che le fake news e la disinformazione siano un problema riguardante il rapporto fra le persone e le strategie di uso di internet. Da un lato, ci sono siti che diffondono notizie palesemente false per attirare l’attenzione dell’audience interessata a quelle news, dall’altro, persone che seguono e condividono queste notizie per motivazioni personali, spesso politiche.
Tuttavia, questa è solo una parte della storia: se guardiamo il sistema nel suo complesso, ci accorgiamo che in realtà le fake news sono una vera e propria industria dell’audience, il cui unico scopo consiste nel diffondere bufale per accumulare click e guadagnare dalla pubblicità online. A rendere possibile tutto ciò sono le quattro “falle” del mondo dell’informazione: l’opacità degli algoritmi, l’effetto filter bubble, lo sfruttamento dei bias percettivi nel consumo di informazioni e il ruolo delle piattaforme.
Facebook ostaggio del proprio business model: ecco perché non risolve i problemi
La lunga ombra sul programmatic advertising
Qualche giorno fa Newsguard – un servizio internet specializzato nella verifica dell’affidabilità delle fonti informative tramite un team di giornalisti esperti – e Comscore – società specializzata nel fornire dati per il marketing digitale – hanno diffuso un report che getta un’ombra piuttosto inquietante su quella che potremmo definire industria delle fake news.
Le due società hanno collaborato incrociando i propri database, un campione di 7.500 siti il cui traffico è monitorato da Comscore e 6.500 siti informativi analizzati da Newsguard, dal punto di vista dell’attendibilità e credibilità. Hanno così potuto stimare la spesa pubblicitaria che riguarda siti inaffidabili o comunque responsabili della diffusione di fake news.
I risultati ottenuti gettano un’ombra piuttosto inquietante sul programmatic advertising (la pubblicità automatizzata basata su algoritmi di profiling dei navigatori internet): circa il 2% (1,68%) degli investimenti pubblicitari va a siti di disinformazione, pari a 2,604 miliardi di dollari, considerato che il budget mondiale pubblicitario, secondo le stime, vale 155 miliardi di dollari.
In pratica, su 2,16 dollari di pubblicità digitale verso siti giornalistici legittimi, circa 1 dollaro va a siti di disinformazione. Questi dati confermano altre ricerche svolte da Newsguard, secondo cui 4 mila top brand hanno pubblicato inserzioni pubblicitarie su 522 siti di disinformazione in tema Covid-19 (di cui 41 sono italiani o registrati in Italia) e 1.668 top brand hanno inserito la propria pubblicità su siti di disinformazione elettorale delle elezioni americane del 2020.
Gli studi sull’ecosistema delle fake news
Questa è solo l’ultima ricerca che prova a stimare il giro d’affari dell’industria della disinformazione, infatti gli studi si stanno moltiplicando e tutti quanti convergono sugli stessi risultati: quello delle fake news è un vero e proprio ecosistema tossico che guadagna sfruttando le capacità di coinvolgimento che hanno le notizie false nel confermare i pregiudizi delle persone.
L’engagement generato dalla disinformazione
Una ricerca svolta dalla New York University in collaborazione con l’università francese di Grenoble Alpes, analizzando i post delle pagine Facebook di 2.500 editori (agosto 2020 – gennaio 2021), valutati secondo parametri di affidabilità calcolati a partire dai database dello stesso Newsguard assieme a MediaBias/Fact Check, ha calcolato che la disinformazione su Facebook riceve sei volte più like, condivisioni e interazioni da parte degli utenti rispetto a informazioni maggiormente verificate.
Aree politiche e fake news
Lo studio, che verrà presentato ufficialmente all’Internet Measurement Conference (dal 2-4 novembre 2021), inoltre, ha rilevato che la disinformazione riceve attenzione sia se viene diffusa sia dai siti di estrema destra che di estrema sinistra, con la peculiarità che gli editori di destra sono più propensi a diffondere informazioni fuorvianti rispetto ad altre aree politiche.
La responsabilità nella diffusione di fake news
Non è il primo studio che pone una pesante ipoteca sulla presunta “responsabilità circoscritta” di Facebook nella diffusione delle fake news, anzi, sembrerebbe che la piattaforma abbia un ruolo di primo piano nell’ecosistema della disinformazione.
Un rapporto interno riservato, datato 2019, giunto nelle mani dei giornalisti del MITTechnology Review e diffuso solo di recente, rivela che, dopo le elezioni USA del 2016, che portarono alla vittoria di Donald Trump, eletto 45° Presidente degli Stati Uniti, Facebook commise alcuni errori nel riorganizzare le strategie di gestione delle informazioni da parte della piattaforma.
Questi errori permisero a troll farm – veri e propri gruppi organizzati localizzati in Macedonia e Kosovo con lo scopo di diffondere disinformazione e commenti politici polarizzati – di raggiungere un pubblico di 140 milioni di utenti al mese attraverso l’azione coordinata di reti di pagine politiche, indirizzate in maniera mirata a elettori cristiani, afro-americani e nativi americani, con tanto di monetizzazione dell’audience: il 75% degli elettori coinvolti, tuttavia, non aveva mai seguito le pagine-troll sotto accusa, ma era stato raggiunto sfruttando vulnerabilità insite nel sistema di raccomandazione dei contenuti di Facebook.
Le vulnerabilità dell’industria dell’informazione
I dati stanno ormai evidenziando in maniera piuttosto chiara quali sono gli elementi di debolezza dell’industria dell’informazione: l’opacità degli algoritmi, l’effetto filter bubble, lo sfruttamento dei bias percettivi nel consumo di informazioni, il ruolo delle piattaforme.
L’opacità degli algoritmi
Tutte le ricerche mostrano l’opacità degli algoritmi. Quelli alla base delle piattaforme – sia di programmatic advertising o di content suggestion – sono stati programmati con bug di design ovvero sono molto bravi a raggiungere i propri obiettivi – profilare il target pubblicitario, suggerire i contenuti – ma spesso a scapito del fair use.
Questo comportamento emerge solo in seconda battuta; ma, una volta che su queste fondamenta si è costruito un mercato, poi è molto difficile e costoso tornare indietro o ri-progettare gli algoritmi.
La filter bubble
Ormai è noto che la strategia di segmentazione dei contenuti sulla base degli interessi dell’audience, è racchiusa all’interno di una bolla che impedisce l’ingresso di contenuti diversi e altera la percezione dell’opinione pubblica circostante. Questo crea un meccanismo di rinforzo – le celebri camere dell’eco – che agisce radicalizzando le posizioni delle persone.
Il meccanismo di polarizzazione socio-computazionale, per effetto della bolla del filtraggio, provoca un ambiente socio-cognitivo che mal si adatta alle esigenze di convivenza civile alla base delle democrazie liberali.
I bias percettivi nel consumo di informazioni
Fin dai primi studi degli anni ’40 del secolo scorso sulla propaganda, sappiamo che le persone tendono a consumare contenuti che siano in linea con la propria visione del mondo. La comunicazione rinforza le opinioni e non contribuisce a modificarle, se non in piccola parte.
Le strategie comunicative delle piattaforme, rese più aggressive dal contributo degli algoritmi, crea una situazione sostanzialmente nuova in cui le tecniche di propaganda – politica o commerciale poco importa – tendono ad essere più efficaci e molto più pericolose per l’autonomia del pensiero, proprio grazie allo sfruttamento dei bias percettivi nel consumo di informazioni.
Il ruolo delle piattaforme
Nel momento in cui le piattaforme sono diventate onnipervasive e sono parte integrante della nostra vita sociale, è sempre più difficile non fare i conti con la capacità che esse hanno di distorcere i processi che sono alla base della nostra vita comune: costruire legami sociali, acquistare beni e servizi, esercitare i propri diritti di cittadinanza.
Il mantra della – presunta – neutralità delle piattaforme ormai non ha più ragion d’essere, non solo perché non ha mai avuto senso – tutte le tecnologie invitano a un uso specifico (le cosiddette affordance) orientando così il comportamento delle persone -, ma le numerose ricerche che si stanno accumulando confermano che esse svolgono un ruolo attivo nell’alterare le relazioni sociali.
Conclusioni
Il grande storico della tecnologia Melvin Kranzberg diceva “la tecnologia non è né buona, né cattiva, né neutrale”, evidenziando come una tecnologia incorpora i valori del contesto sociale che la utilizza.
Quando però le piattaforme, attraverso gli algoritmi, diventano autonome, ci sono buone possibilità che la tecnologia diventi cattiva. Sta a noi vegliare e intervenire perché i social media non rendano tossica la convivenza digitale.
Bibliografia
Bakir, V., McStay, A. (2018). Fake news and the economy of emotions: Problems, causes, solutions, “Digital journalism”, 6(2), pp.154-175.
Christin, A. (2020), The ethnographer and the algorithm: beyond the black box, “Theory and Society”, 49(5), pp.897-918.
Dwoskin, E. (2021, Settembre 4). Misinformation on Facebook got six times more clicks than factual news during the 2020 election, study says, “Washington Post” https://www.washingtonpost.com/technology/2021/09/03/facebook-misinformation-nyu-study/ [ultima consultazione 29/09/2021]
Hao, K. (2021, Settembre 20). Troll farms reached 140 million Americans a month on Facebook before 2020 election, internal report shows. “MIT Technology Review”, https://www.technologyreview.com/2021/09/16/1035851/facebook-troll-farms-report-us-2020-election/ [ultima consultazione 29/09/2021]
Hirst, M. (2017). Towards a political economy of fake news, “The political economy of communication”, 5(2), pp.82-94.
Klapper, J. T. (1960). Gli effetti delle comunicazioni di massa, Etas Kompass, Milano, 1974.
Kranzberg, M. (1986). Technology and History: “Kranzberg’s Laws”, “Technology and culture”, 27(3), pp.544-560.
Newsguard (2021a, s.d.). Special Report: Pubblicità e disinformazione sul COVID-19. https://www.newsguardtech.com/it/special-reports/special-report-advertising-on-covid-19-misinformation/ [ultima consultazione 29/09/2021]
Newsguard (2021b, Gennaio 12). How some of the world’s largest brands funded the misinformation behind the Capitol riot. https://www.newsguardtech.com/special-reports/special-report-advertising-on-election-misinformation/ [ultima consultazione 29/09/2021]
Newsguard (2021c, Settembre 16). Special Report: Pubblicità sui siti che pubblicano disinformazione. https://www.newsguardtech.com/it/special-reports/miliardi-di-dollari-di-pubblicita-ai-siti-che-pubblicano-disinformazione-newsguard-comscore-report/ [ultima consultazione 29/09/2021]
Pariser, E. (2011). Il filtro. Quello che internet ci nasconde, Il Saggiatore, Milano, 2012.
Sunstein, C. (2009). Voci, gossip e false dicerie. Come si diffondono, perché ci crediamo, come possiamo difenderci, Feltrinelli, Milano, 2010.
van Dijck, J., Poell, Th., de Waal, M. (2018). Platform society. Valori pubblici e società connessa, Guerini, Milano, 2019.
Wardle, C., Derakshan, H. (2017). Information disorder. Toward an interdisciplinary framework for research and policy making, Council of Europe report, DGI(2017)09.