disinformazione e social

L’inerzia di Facebook genera mostri: perché fake news e contenuti virali sono problema di tutti

Il coinvolgimento di Facebook nella diffusione di disinformazione e contenuti virali volti a manipolare l’opinione dei suoi utenti non è marginale e non è un problema di poco conto o che si risolverà da solo. Ci sono questioni molto serie dietro, non ultimo quello di un ambiente culturale che genera mostri

Pubblicato il 25 Ott 2021

Alberto Berretti

Dipartimento di Ingegneria Civile ed Ingegneria Informatica, Università di Tor Vergata

meta privacy edpb

Dopo i fatti relativi alle elezioni USA del 2016, alle polemiche sul ruolo della controversa società inglese Cambridge Analytica nella manipolazione dell’elettorato americano attraverso i social media, e in particolare Facebook, sarebbe stato naturale pensare che le elezioni del 2020 non avrebbero proposto scenari simili, che le strategie fossero cambiate e che fosse posta una maggiore attenzione, anche da parte dei gestori dei siti social, a evitare certi fenomeni.

Apparentemente non è stato così, il che pone problemi di lungo periodo sul ruolo dei social media nella politica e nella società, in particolare del social media per eccellenza (numerica), e cioè Facebook.

Elezioni, se la democrazia è nelle mani di Facebook: quali regole imporgli

Come ti manipolo le elezioni grazie a Facebook

Pochi giorni prima del voto del 2016, un articolo di Buzzfeed svelò come più di un centinaio di siti pro-Trump erano in realtà gestiti da ragazzini di Veles, una cittadina di meno di 50 mila abitanti in Macedonia, guadagnando con la pubblicità presente nei siti cifre non insignificanti per il paese. Era uno dei primi esempi, disvelati chiaramente, di troll farm, e cioè una catena di siti impegnati in una attività di disinformazione coordinata, allo scopo di influenzare l’opinione pubblica su un tema politico o di screditare qualcuno (shitstorm).

Come presentata inizialmente da Buzzfeed, la cosa sembrava stare in termini paradossali ma quasi benevoli: ragazzini squattrinati che hanno l’idea di creare siti che possono potenzialmente attrarre molto traffico e guadagnare qualcosina. In realtà un’attenta analisi dell’Organized Crime and Corruption Reporting Project ha svelato nel 2018 che le cose erano, come facilmente prevedibile, un po’ diverse.

La campagna era stata lanciata da un avvocato macedone con buoni contatti negli USA, che avrebbe lavorato a stretto contatto con partner americani, tra cui un candidato repubblicano alla Nevada State Assembly del 2018 coinvolto nella realizzazione di siti di fake news nel 2016, e un agente russo incriminato nel rapporto Mueller sulle interferenze nelle elezioni del 2016 era stato in Macedonia poco prima che i primi domini utilizzati per la campagna fossero registrati. Questo per quanto riguarda gli innocenti teenager macedoni che volevano fare qualche soldo con la pubblicità online.

L’inerzia di Facebook contro i gruppi coordinati

Un articolo di Technology Review cita dati impressionanti da un report per uso interno di Facebook. Ancora nel 2019, la piattaforma non avrebbe preso alcuna misura sostanziale e di lungo periodo per combattere il fenomeno dei gruppi coordinati e delle pagine che attivamente promuovono notizie false, ma avrebbe continuato a combattere il fenomeno caso per caso, ogni volta che il problema veniva segnalato. In questo modo però, come è evidente, la maggior parte dei gruppi e delle pagine che partecipano a questa attività restano online, per semplici ragioni numeriche: sono tanti, e non si può intervenire “a mano” caso per caso in tutti i casi. Non si parla di piccoli numeri. Si parla di decine di migliaia di pagine, con oltre cento milioni di utenti americani, tra cui la allora più numerosa pagina “cristiana” rivolta a un pubblico americano su Facebook e la più numerosa pagina dedicata a temi afroamericani. Pagine largamente originate e gestite dal Kosovo e dalla Macedonia: di nuovo, nel 2019, in tempo per le elezioni del 2020.

I post sponsorizzati o suggeriti su Facebook: come nasce un contenuto virale

Per capire perché la tecnologia utilizzata da Facebook favorisce questo tipo di fenomeni, partiamo da alcune semplici osservazioni. È da diverso tempo che moltissimi dei post che vedo sulla mia app mobile Facebook non sono post dei miei “amici” o delle pagine e gruppi che ho scelto di seguire, ma post sponsorizzati o peggio post suggeriti.

In altri termini, non sono post che ho scelto in alcun modo di vedere, e non sono nemmeno strettamente post pubblicitari (si, ricevo in mezzo al mio feed i soliti post di pubblicità cosiddetta mirata ad es. di Amazon o di Mediaworld, spesso mirata assai male come quanto mi viene pubblicizzato abbigliamento per sacerdoti; la pubblicità commerciale non è un problema). Ad esempio, ultimamente ricevo come post suggeriti frequentissimi post di pagine ed utenti che io immediatamente riconosco come troll e propagatori di fake news relative a fantomatici blocchi autostradali di manifestanti contro il Green Pass. Blocchi che ovviamente non esistono: le foto allegate sono semplicemente foto di normali ingorghi e code dovuti al traffico. Questo perché Facebook valuta come engaging contenuti che hanno un elevato numero di like o di condivisioni, e favorisce tale tipo di contenuto riproponendolo.

I numeri sono grandi: se tale contenuto viene riproposto a milioni di persone, anche se solo l’uno per mille ci casca (condivide, mette un like, un commento…) ecco che abbiamo migliaia di condivisioni. La cosiddetta viralità viene favorita, creando meccanismi automatici di amplificazione di qualsiasi contenuto.

È questo l’automatismo alla base del successo straordinario delle troll farms e delle campagne di disinformazione su Facebook. Campagne che possono essere anche iniziate altrove: i contenuti virali possono esser diventati tali prima su Twitter, o su Reddit, o qualche social marginale di estrema destra, e una volta innescata la campagna questa guadagna anche centinaia di milioni di contatti su Facebook.

Facebook come una potenza straniera

Adrienne LaFrance, executive editor del The Atlantic, ha paragonato Facebook ad una doomsday machine, i sistemi automatici che, in caso di first strike nucleare dell’avversario, avrebbero garantito il second strike che avrebbe annichilito il pianeta (tali sistemi sono realmente esistiti, non solo nella fantasia di Stanley Kubrick e nel film Doctor Strangelove: i russi avevano una cosa chiamata Perimetr – Dead Hand dalle forze NATO – che aveva esattamente questa funzione, e gli americani qualcosa di simile, l’AN/DRC-8 Emergency Rocket Communication System). Sempre la LaFrance ha parlato di Facebook come un “regime autoritario”, citando Hillary Clinton che le avrebbe detto che la sua impressione, parlando con Zuckerberg, è stata quella di parlare con una potenza straniera.

Taluni tendono a pensare che Facebook sia un problema che si risolve da solo, in quanto i giovani utilizzerebbero sempre di meno il sito. In realtà, sono parecchi anni che si ripete questa cosa, e osservando il profilo di età degli utenti di Facebook sembrerebbe che man mano che i giovani invecchiano iniziano a utilizzarlo (visto che tale profilo rimane stabile). I giovani usano però Instagram e WhatsApp, che guarda caso sono di proprietà di Facebook, e ci risiamo. C’è un problema antitrust serio, molto serio, rispetto al quale i piagnistei verso TikTok che è cinese fanno francamente ridere.

Conclusioni

C’è anche un problema più generale, che ci riguarda direttamente. Abbiamo creato un ambiente culturale in cui la cosiddetta viralità dei contenuti, invece di essere vista come un imbastardimento dei medesimi, viene considerata come qualcosa di positivo. Dove la figura del professionista che trasforma qualsiasi fesseria detta da un politico o da un’azienda in oro colato viene considerata come una figura rispettabile. È su questa base culturale che abbiamo lasciato che i mostri siano cresciuti fino a minacciarci.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati