Post verità

I social amplificano (ancora) le bugie online: le conferme

Più le informazioni risultano divisive, polarizzate, violente e fuorvianti, più aumenta il relativo coinvolgimento virtuale grazie ad un maggiore interesse degli utenti verso tale tipologia di contenuti. Ma siamo davvero destinati a convivere con le fake news? E cosa fanno i social e la politica?

Pubblicato il 27 Ott 2022

Angelo Alù

studioso di processi di innovazione tecnologica e digitale

fake news guerra

Una bugia ben congegnata vale di più rispetto alla pubblicazione di informazioni corrette e veritiere, almeno secondo il criterio performante di posizionamento virtuale dei contenuti indicizzati dagli algoritmi tecnologici utilizzati dalle piattaforme sociali.

Mentire, insomma, come conferma anche un recente report dell’Integrity Institute, conviene nell’era in cui (a quanto pare) “la verità non esiste” praticamente più secondo il paradosso pirandelliano del puro relativismo espressivo di opinioni.

Si tratta di un’ulteriore – ennesima – conferma a riprova dell’esistenza di un grave problema riscontrabile nell’ambito del preoccupante “lato oscuro” della Rete: la disinformazione, con particolare riferimento al dilagante impatto amplificativo dei social media sulla percezione distorta del flusso comunicativo, rappresenta una criticità planetaria non solo in considerazione dei risvolti negativi legati alla vulnerabilità del complessivo funzionamento dell’ecosistema digitale, ma soprattutto per i pericoli insiti di destabilizzazione sociale e politica derivanti dalla circolazione fuori controllo delle fake news.

How to Spot Fake News - FactCheck.org

How to Spot Fake News - FactCheck.org

Guarda questo video su YouTube

I casi di disinformazione rilevati rappresentano, peraltro, soltanto la “punta dell’iceberg” di un fenomeno radicato nello spazio virtuale che qualsiasi capillare e completa attività di “fact-checking”, pur dettagliata e approfondita, non sarà mai in grado di identificare con completezza.

Disinformazione e viralità: l’indagine statistica effettuata dall’Integraty Institute

Il citato Report va analizzato in stretta connessione con il “Programma di integrità elettorale” sviluppato nel corso del tempo dall’Integrity Institute, in collaborazione con enti di ricerca e organizzazioni di settore, per comprendere nel medio-lungo termine l’impatto comunicativo delle piattaforme sociali sulle elezioni democratiche che si svolgono in tutto il mondo (emblematico, in tal senso, il più risalente report “The Global Disinformation Order: 2019 Global Inventory of Organized Social Media Manipulation”, secondo cui la disinformazione online prolifera grazie alla “viralizzazione” di contenuti immessi da finti “followers” e bot automatizzati in grado di influenzare l’opinione pubblica).

In tale prospettiva, l’indagine statistica effettuata dall’Integraty Institute rappresenta una prima sperimentazione empirica suscettibile di ulteriori sviluppi in grado di perfezionarne il relativo calcolo con l’obiettivo di raggiungere un livello giornaliero di monitoraggio da intensificare soprattutto in occasione delle prossime competizioni elettorali previste negli Stati Uniti alla scadenza naturale della cariche istituzionali per verificare l’esistenza di eventuali “sbalzi” sospetti della disinformazione in linea con una plausibile impennata di contenuti tematici “polarizzati” veicolati all’opinione pubblica.

In particolare, lo studio, a cura dell’Integrity Institute, ha costruito un cruscotto di monitoraggio per cercare di misurare l’amplificazione della disinformazione online, tenendo “traccia” delle principali insidie che inquinano le fonti informative disponibili e delle azioni effettivamente intraprese dai gestori dei social media per arginare la diffusione di contenuti falsi e fuorvianti.

Cos’è e cosa indica il Misinformation Amplification Factor” – MAF

Dal punto di vista metodologico, per parametrare la ricerca sul concreto impatto amplificativo della disinformazione misurata all’interno dei social media, attingendo alla grande quantità di dati estratti dalle piattaforme telematiche secondo le metriche analitiche predisposte dall’International Fact Checking Network, il Report ha focalizzato uno specifico indicatore medio di monitoraggio (cd. “Misinformation Amplification Factor” – MAF) in grado di calcolare il “rapporto tra quanto coinvolgimento ottiene un post di disinformazione e quale coinvolgimento ci aspetteremmo in base alle prestazioni storiche dei contenuti del creatore” prima della diffusione della informazione falsa, con particolare riferimento ai precedenti 15 post condivisi online.

Come non cadere nelle fake news: ecco il “pensiero laterale” che ci può salvare

Entrando nel merito delle evidenze statistiche rilevate, si evince a chiare lettere, testualmente, che “i contenuti che contengono disinformazione tendono a ottenere più coinvolgimento, ovvero mi piace, visualizzazioni, commenti e condivisioni, rispetto a contenuti effettivamente accurati”.

In altre parole, più le informazioni risultano divisive, polarizzate, violente e fuorvianti, presentando pertanto una potenziale lesività dannosa per la generalità degli utenti, più aumenta mediamente il relativo coinvolgimento virtuale grazie ad un maggiore interesse degli utenti verso tale tipologia di contenuti.

La disinformazione corre sui social

Con intervalli statistici di confidenza pari a circa il 90%, l’indicatore MAF (“Misinformation Amplification Factor”) raggiunge il punteggio medio di 4.2 su Facebook (oscillando tra 3.5 – 5.0) tenuto conto dell’engagement basato sull’interazione tra reazioni, commenti e condivisioni. Su Instagram il MAF è pari alla media di 2,9 (2,4 – 3,5) tenuto conto del calcolo di coinvolgimento ottenuto tra mi piace e commenti. Riferito a TikTok il MAF ha una media di 29 (9,5 – 91) rispetto al parametro delle visualizzazioni. All’interno di Twitter il MAF si attesta alla media statistica di 35 (25 – 51) alla luce delle rilevazioni monitorate da contenuti preferiti, risposte e retweet. Su YouTube il MAF in media è pari a 6.1 (3.3 – 12) sulla base del range di coinvolgimento ricavato dal numero complessivo di visualizzazioni.

Secondo le parole del citato Report, “tutte le piattaforme di social media hanno un fattore di amplificazione della disinformazione superiore a 1”, da cui si evince mediamente il maggiore impatto amplificativo delle fake news rispetto ai contenuti veri, pertinenti e affidabili.

Il valore MAF più elevato viene raggiunto da Twitter (35) e TikTok (29) ove risultano verosimilmente accentuati i meccanismi di “viralità” del flusso comunicativo immesso online, massimizzando pertanto la condivisione dei relativi contenuti (non a caso, pare che TikTok abbia raggiunto elevati picchi di disinformazione elettorale molto critici già ora riscontrabili nel continente africano).

Determinandosi un cortocircuito informativo senza fine, piuttosto che limitare la circolazione delle fake news immesse online, sembra che, stando al Report citato, i meccanismi tecnici delle piattaforme sociali ne renderebbero paradossalmente ancora più performante e pervasiva la relativa viralizzazione facilitandone la diffusione su larga scala. Tra le principali criticità segnalate vi è, ad esempio, l’esistenza di un gap cronologico di ritardata e asincrona tempestività tra la circolazione delle fake news e l’azionabilità – necessariamente ex post – delle operazioni di controllo e verifica, rendendo quindi vano qualsivoglia tentativo di rimozione del contenuto falso che comunque, laddove venga poi effettivamente rimosso, nel frattempo, ha già raggiunto un’elevata percentuale di utenti (spesso del tutto inconsapevoli delle insidie manipolative cui sono esposti), come ineludibile conseguenza – secondo quanto testualmente indicato dal Report – della “differenza di tempo tra il momento in cui il contenuto di disinformazione viene pubblicato e il momento in cui vengono attivati gli strumenti factchecking su di esso”. Da ciò discende la tendenziale fallibilità delle azioni di contenimento della disinformazione, qualora – ma non sempre – siano state predisposte.

Il fact checking è inutile?

Gli studi richiamati dal Report realizzato dall’Integrity Institute evidenziano che generalmente “la disinformazione sui social media ottiene il 90% del suo coinvolgimento totale in meno di un giorno, il che significa che per la maggior parte dei contenuti verificati, il fact check arriverà dopo che il post ha già ricevuto la maggior parte del suo coinvolgimento”.

Le contromisure dei social

Al riguardo, il Report sottolinea che “Facebook e Twitter hanno, di gran lunga, il maggior numero di fact check sui loro contenuti” con la conseguenza che “la stima MAF per Instagram, TikTok e YouTube avrà sempre incertezze significativamente più elevate”.

Tali evidenze mostrano crepe difficilmente sanabili, e ciò preoccupa oltremodo nonostante la predisposizione, da parte delle piattaforme, di soluzioni concrete per contrastare la circolazione di fake news.

TikTok (come “app più scaricata nel 2021”), ad esempio, si è dotata di “linee guida” per garantire, nel rispetto dei principi di “sicurezza, diversità, inclusione e autenticità” lo sviluppo di un “ambiente che promuova interazioni veritiere” e che “non tolleri la discriminazione” anche a presidio dell’integrità elettorale, con l’intento di combattere la diffusione della disinformazione sulla piattaforma, avvalendosi a tal fine, tra le azioni concretamente intraprese, dell’ausilio fornito dal Content Advisory Council, del servizio Hashtag PSA come ulteriore strumento che consente di verificare fatti e segnalare contenuti ritenuti anche potenzialmente in contrasto con le linee guida vigenti, unitamente alla periodica pubblicazione di video educativi TikTok “ integrato da un sistema di raccomandazione progettato per monitorare e rimuovere i contenuti considerati “scioccanti per un pubblico generico” (di cui viene dato riscontro in sede di predisposizione del Report sulla Trasparenza).

Sulla stessa scia anche Facebook che, impegnata da tempo in prima linea per rimuovere milioni di contenuti di incitamento all’odio, sta perfezionando la propria capacità tecnologica per garantire la rapida identificazione degli account falsi grazie all’uso di sofisticati algoritmi di rilevazione, come si evince dal Community Standards Enforcement Report (CSER), nell’ottica di combattere la disinformazione online mediante una serie di svariate interventi: il “Temporal Interaction EmbeddingS (TIES)”, i progetti sperimentali “Full Fact” e Facebook Open Research and Transparency project (FORT), unitamente alla costituzione di un team di fact-checker per monitorare gli account etichettati come fonte di disinformazione, senza dimenticare l’iniziativa “Supporting Independent Voices” e la piattaforma “Facebook Journalism Project” per realizzare un modello interattivo e sostenibile di giornalismo di qualità in grado di diffondere notizie a livello globale, combattere la disinformazione e promuovere l’alfabetizzazione giornalistica.

Gli sforzi sul versante politico

Mentre qualcosa si muove nel settore imprenditoriale delle Big Tech, sul versante politico gli sforzi attualmente compiuti – ancora però in via meramente embrionale o comunque privi di cogenza giuridica – non sono del tutto sufficienti a contrastare il problema della disinformazione. La Commissione europea, ad esempio, ha recentemente pubblicato la bozza base del Codice di condotta rafforzato UE sulla disinformazione (firmato dalle principali piattaforme sociali e da vari inserzionisti del settore pubblicitario) come strumento di coregolamentazione “soft-law” troppo debole e poco incisivo che si limita all’enunciazione teorica di principi generali, privo di vincolatività giuridica, la cui concreta effettività è praticamente rimessa ai buoni propositi degli operatori telematici. Allo stato iniziale è la proposta di regolamento (cd. “European Media Freedom Act”) che, malgrado la forma di atto normativo cogente direttamente applicabile negli Stati membri con effetti obbligatori, si trova ancora in una fase embrionale di iniziale discussione istituzionale dagli incerti esiti finali nella stesura definitiva della relativa disciplina.

Conclusioni

Rispetto alla massiva circolazione di contenuti falsi più “popolari” (quindi facilmente individuabili), qualunque tentativo di monitorare e regolamentare il fenomeno della disinformazione potrebbe rivelarsi inutile e infruttuoso. Venendo in rilievo un problema complesso, arduo, spinoso, ormai endemico su scala globale e pertanto ragionevolmente sottostimato ben oltre la semplice individuazione della sola visibile “punta dell’iceberg”, risulta estremamente difficile rintracciare, ad esempio, le informazioni che, pur ottenendo un “engagement” più basso, comunque concorrono a inquinare il complessivo flusso comunicativo veicolato in Rete, senza dimenticare inoltre l’impossibilità di ricostruire l’integrale “puzzle” disperso di informazioni distorte massivamente condivise da milioni di utenti che interagiscono con il post “principale” incriminato ed etichettato come “falso”.

Praticamente, siamo destinati a convivere con le fake news. Sembra così forse prendere definitivamente forma la cosiddetta “era della post verità”?

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2