l'analisi

La disinformazione corre sui social e le contromisure non bastano: che fare?

Come combattere gli effetti della disinformazione, senza limitare i diritti di libertà di parola? Ci stanno provando un po’ tutti, dai social ai Governi (Italia compresa), ma con scarsi risultati. Facciamo un quadro delle azioni in corso

Pubblicato il 01 Giu 2020

Barbara Calderini

Legal Specialist - Data Protection Officer

disinformazione

La falsa notizia – scriveva Marc Bloch nel 1921- è lo specchio in cui la “coscienza collettiva” contempla le sue caratteristiche.

E infatti, l’attuale “infodemia” – amplificata dalla diffusione di voci e informazioni false sulla crisi sanitaria largamente diffuse dalle piattaforme digitali come dall’inflazione di particolari prodotti giornalistici – sebbene si presenti come un fenomeno di dimensioni evidentemente senza precedenti, si mostra altrettanto prevedibile.

E non deve stupire che, nel noto ecosistema della disinformazione, la pandemia Covid-19 si sia posta pericolosamente al centro dello stesso, potendo contare oltre che sull’influenza esercitata verso sfere emozionali particolarmente sensibili, anche sul largo favore “degli strumenti digitali”.

Da ultimo, fa specie il caso del video complottista Plandemic, visto da milioni di persone prima che i social lo bloccassero (non definitivamente, però).

Notevole anche il recente studio di Carnegie Mellon secondo cui i bot Twitter che rilanciano in automatico tweet complottisti sono saliti al 48% del totale, contro la media ore covid del 20%.

Basandoci sull’osservazione dei principali social media, facciamo il punto sulla situazione in Italia e all’estero.

Il falso circola più veloce del vero: gli studi

C’è probabilmente un problema di fondo: anche a prescindere dai bot, il falso circola sei volte più velocemente del vero.

Il Massachusetts Institute of Technology di Boston con quello che è , a ragione, considerato il più grande studio sulle fake news, intitolato The Spread of True and False News Online” ne ha illustrato efficacemente le ragioni.

Una “fake” ha il 70% di probabilità in più di essere retwittata di una “true”. E l’effetto “cascata”, ovvero quello indotto dalle catene di condivisioni ne aumenta ulteriormente la rapida ed ininterrotta propagazione.

Altrettanto dimostra lo studio “Fake news propagate differently from real news even at early stages of spreading” che, analizzando i grandi database di notizie false e reali di Weibo in Cina e Twitter in Giappone, rivela come entrambi diffondano notizie false in modo distinto rispetto alle notizie reali sin dalle prime fasi di propagazione.

E sulla stessa scia anche il più recente report “Topology comparison of Twitter diffusion networks effectively reveals misleading information” a firma di tre italiani Francesco Pierri, Carlo Piccardi e Stefano Ceri.

Facebook, Twitter, Youtube in veste di abili vettori di informazioni, immagini e video, costituiscono dunque percorsi preferenziali per la diffusione della disinformazione oggi legata ai temi dell’emergenza sanitaria, dell’origine del virus, della sua trasmissione, prevenzione e cura, delle percentuali di rischio di contagio e mortalità per le popolazioni più esposte, delle strategie di contenimento e degli interessi nascosti alla base all’origine “presumibilmente dolosa” dell’epidemia.

Disinformazione, l’allarme del Copasir e l’osservatorio Agcom

Lo stesso Copasir, per il tramite del suo Presidente Raffaele Volpi, a fine marzo ha annunciato, da parte del Comitato, l’avvio di un’indagine sulla campagna di disinformazione in tema Covid condotta, sempre secondo il Presidente Volpi, contro l’Italia da parte di “entità statuali esterne” all’Europa e di indirizzo autocratico.

“Profili fake, rilancio di post Facebook, siti esteri che diffondono in modo coordinato su numerose piattaforme e account notizie fuorvianti, sono solo alcune delle forme dei fenomeni di disinformazione riconducibili al mondo del web, volti a creare sovraccarico informativo circa l’individuazione dei vaccini, i rimedi terapeutici e gli strumenti diagnostici efficaci a fronte del contagio da Covid-19”, afferma preoccupato Volpi a seguito all’approfondimento sul tema svolto da Enrico Borghi membro del Comitato.

Un’inchiesta questa che si affianca al lavoro dell’EUvsDisinfo, la task force sulla disinformazione del Servizio Ue per l’azione esterna (Eeas).

La vasta portata in termini quantitativi del “fenomeno infodemico italiano” è stata ben delineata nel recente rapporto dell’Osservatorio sulla disinformazione on line dell’Agcom che ha analizzato “l’intero contenuto testuale di oltre 17 milioni di documenti generati in Italia (dal 1° gennaio 2019 al 22 marzo 2020) da più di 2.000 fonti informative (canali televisivi e radiofonici nazionali, quotidiani, agenzie di stampa, siti web di editori tradizionali, testate esclusivamente online, e relative pagine e account di social network), e fonti di disinformazione (siti web e pagine/account social) individuate come tali da soggetti esterni specializzati in attività di debunking.”

L’esame dei seguenti grafici estratti dal rapporto è immediatamente esplicativo.

L’impennata della disinformazione on line, la cui cassa di risonanza è costituita dall’infezione Covid-19, emerge perfettamente. Il ruolo dei social network in termini di corrieri di contenuti, altrettanto.

Fonte Immagini: Agcom

Nel periodo analizzato, le notizie sul Covid-19, diffuse da fonti di disinformazione online, hanno raggiunto una media giornaliera del 38% sul totale della produzione, con un incremento del 33% rispetto al mese di gennaio in cui si attestavano sul 5%.

“Nel mese di marzo ben 4 su 7 sono gli articoli pubblicati in un giorno sul coronavirus da siti web di disinformazione”.

Pagella Politica e NewsGuard hanno collaborato con Agcom nella stesura dell’approfondimento.

Entrambi rappresentano due dei maggiori alleati delle istituzioni nella lotta alla disinformazione.

Se, infatti, da una parte NewsGuard, oltre alle indagini relative alle varie testate di informazione online e Facebook, ha stilato e reso nota anche la lista di account Twitter più pericolosi, quanto alla divulgazione di fake news fra Italia, Francia e Germania, dall’altra, su impulso di Agcom, Facebook insieme a Pagella Politica il mese scorso ha lanciato il progetto “Facta” il servizio di fact-checking dedicato alla piattaforma WhatsApp e volto alla verifica dell’attendibilità delle informazioni sul Covid-19.

Infodemia, debunking e fact-checking

Rilevare notizie false è un compito tanto importante quanto complesso, la natura libera dello spazio informativo cede al veleno della disinformazione.

La sovraesposizione informativa (information overload) derivante dal bombardamento mediatico e dalle cascate di condivisione sovrasta la qualità delle notizie, polarizza il pubblico, alimenta i pregiudizi favorendo processi cognitivi artefatti concentrati sulle sole argomentazioni che supportano e consolidano le reciproche opinioni.

Come combattere gli effetti della post-verità e della disinformazione, senza limitare i diritti di libertà di parola?

I social media, come le agenzie di stampa prima di loro e le organizzazioni indipendenti, si stanno adoperando con rinnovato impegno in articolate attività di debunking (smentita) specie legate all’attuale emergenza sanitaria ma anche in previsione delle imminenti elezioni americane USA 2020.

Il fact-checking ovvero il procedimento di verifica che mira a stabilire se il contenuto di una notizia sia vero o falso, utilizzando e valutando tutte le fonti rilevanti, seguito dalla smentita della “fake news”, sembrerebbe essere l’arma più idonea allo scopo e, ad oggi, l’unica contromisura realmente perseguibile.

Tuttavia, con scarsi risultati. Lo denunciano numerosi attori – da ultimo un rapporto Newsguard di maggio su Twitter, ma in passato la critica ai social si è levata anche dalla Commissione europea.

Le evidenze emergono con chiarezza anche dalle risultanze delle strategie di contrasto messe in atto dai social network.

Le contromisure Facebook

L’impiego dell’intelligenza artificiale, sempre più efficace contro hate speech, si rivela invece fallace nell’individuazione della “mis-informazione” o fake news, come riportato. Soprattutto se veicolata da deepfake o altri video manipolati.

Facebook, come anche Twitter  fa ampio ricorso quindi alle attività dei fact-checker indipendenti, certificati dalla rete indipendente International Fact-Checking Network, schierati da Zuckerberg nella sua strategia di contrasto alla disinformazione, per individuare ed esaminare le notizie false su Facebook e Instagram. Circa 60 organizzazioni tra cui Pagella Politica per l’Italia che rivedono contenuti in 50 lingue in tutto il mondo.

Solo nel mese di marzo vengono riferiti avvisi su almeno 40 milioni di post. Arrivando a rimuovere solo i post che possono causare danni agli utenti.

Eppure, le misure non sono sufficienti ad arginare la circolazione dei contenuti falsi.

Allo stesso modo i provvedimenti e le restrizioni pensati per i trasgressori recidivi che condividono ripetutamente notizie false, tra cui le limitazioni sulla possibilità di monetizzare, pubblicizzare contenuti e registrarsi come Pagina di notizie, appaiono non risolutivi. Può incidere anche la scelta di Facebook di non intervenire sui post di politici, anche quando contenenti fake news evidenti.

Inutili, o poco conferenti, anche le ulteriori tattiche messe in campo con la collaborazione di Avaaz, l’organizzazione non governativa internazionale, che tenta di indirizzare gli utenti su fonti attendibili attraverso specifici avvisi ad hoc: ovvero messaggi contro la disinformazione nei news feed degli account personali che sono venuti a contatto con notizie false.

Il debunking in alcuni casi, anziché combattere, favorisce la diffusione dei fake. L’effetto backfire, ovvero l’incremento di attenzione su contenuti etichettati come mistificatori ma fortemente in linea con le convinzioni di determinati utenti o non smentiti in modo convincente, è un fenomeno ormai noto (cfr. Quattrociocchi).

I controlli (insufficienti) su YouTube e Twitter

Le inibizioni indirizzate contro le applicazioni ritenute non affidabili perché non certificate da enti istituzionali o di ricerca riconosciuti, non sono bastate.

Come pure i controlli annunciati da Google e la sua piattaforma video You Tube sui contenuti che “mancano di ragionevole sensibilità o capitalizzano su disastri naturali, atrocità, conflitti, morti o altri eventi tragici”, e che paiono voler “trarre profitto da un evento tragico senza benefici evidenti per le vittime”.

Dozzine di video di YouTube continuano a “suggerire” e diffondere contenuti mistificatori.

Le etichette e messaggi di avviso di Twitter volti a segnalare i post con informazioni controverse o fuorvianti o manipolate, si pongono sulla stessa scia delle tecniche di contrasto dei social concorrenti. Altrettanto sono inadatte.

La previsione di oscuramento e rimozione dei tweet che rappresentano “un rischio di violenza di massa o disordini civili diffusi; se minacciano l’incolumità di una persona o di un gruppo, la loro privacy e la libertà d’espressione, o ancora se sono strumento di stalking”, di fatto non riesce a garantire un livello soddisfacente di riduzione del fenomeno disinformativo.

Ad aprile, le teorie che collegavano 5G e coronavirus hanno invaso intere pagine del social. Analogamente le varianti delle teorie complottiste per cui la pandemia sarebbe uno strumento di controllo di massa.

Spia di quanto sia insufficiente finora il lavoro di contrasto fatto da Twitter (e altri social) in materia è anche il fatto che la piattaforma continua a cercare di affinare la propria azione, in chiave sempre più restrittiva. Da ultimo, arrivando a etichettare come “fake” due tweet del presidente degli Stati Uniti Donald Trump, per la prima volta. Scatenandone le ire.

Ma non è tutto.

“Mentre la crisi Covid-19 continua a monopolizzare la vita pubblica in tutto il mondo, le teorie della cospirazione sul virus continuano a raccogliere vapore e i media pro-Cremlino sono ansiosi di saltare sul carro” riportava il 14 maggio scorso la pagina web di EuvsDisinfo.

Nell’ambito dell’editoria digitale, infatti, le auspicate pratiche di explanatory journalism, volte a demistificare gli argomenti fumosi e complessi partendo dalla spiegazione del contesto in cui si inseriscono, con ciò facilitando il lavoro dei fact-checker, stentano a decollare. Stessa sorte per quanto riguarda l’incremento degli apporti interdisciplinari derivanti dai contributi scientifici delle varie discipline a supporto della narrazione.

Il terreno del fake non sembra piegarsi neanche alle velleità investigative dell’intelligenza artificiale.

Gli algoritmi di rilevamento delle notizie false – le tecniche basate su apprendimento automatico e linguistica computazionale che mirano a misurare la credibilità di una singola notizia attraverso l’analisi di pattern o altre caratteristiche ricorrenti come menzioni, numero di followers, hashtag – appaiono inefficaci nei confronti di quei contenuti scritti intenzionalmente per fuorviare gli utenti, simulando notizie vere.

Bot e troll abilmente addestrati secondo le logiche dell’Adversarial Learning – il nuovo campo di ricerca dell’intelligenza artificiale che tenta di ingannare i modelli attraverso input dannosi – si mostrano in grado di resistere agli attacchi del debunking di riconoscimento automatico.

Oltre a ciò, il progetto CoronaCheckun sistema di verifica automatica dei contenuti statistici a tema Covid-19, sviluppato dal team di ricerca guidato dal Professor Papotti di EURECOM e dal Professor Trummer della Cornell University, con la collaborazione della Johns Hopkins University, dell’Organizzazione mondiale della sanità (Oms) e dei governi e dei ministeri della salute, tra cui anche quello italiano – sebbene abbia evidenziato qualche risultato apprezzabile, in generale, si è rivelato in grado di discernere il vero dal falso solo sulla base di analisi di combinazione di dati palesemente alterati.

Chi lo ha testato riferisce che il tool di intelligenza artificiale risponde alle varie richieste di verifica apponendo un’etichetta vero/falso, corredata di una spiegazione di come il sistema di intelligenza artificiale sia giunto a quella conclusione. Nel dubbio sull’effettiva rispondenza alla realtà di fatti, l’algoritmo non emette giudizi ma richiede all’utente ulteriori feedback e dati integrativi.

Basilare, infine, il fatto che il vivace dibattito di natura etica e democratica relativo all’entità che possa essere validamente delegata ad eseguire il filtro dell’informazione, ed entro quali limiti, rimanga la momento ancora aperto ed irrisolto.

In tale contesto di inserisce in Italia il “progetto Facta”, un “pilota” di cui si attendono i primi risultati ma che non ha mancato di suscitare sin da subito dubbi e perplessità sotto molteplici aspetti tra cui il rispetto dei principi di libertà di espressione e protezione dei dati personali. Tra questi anche quelli dell’Autorità Garante della Privacy.

Il progetto “FACTA”, istituzioni e social alleati sul fact-checking

Scegli a chi non credere”, questo lo slogan scelto da Facta, il progetto ideato da Pagella Politica, proposto da Facebook per l’applicazione di messaggistica WhatsApp ed inserito dall’Agcom tra le attività del monitoraggio delle iniziative di auto-regolamentazione delle piattaforme on-line volte a contrastare la disinformazione sulle tematiche Covid-19, a seguito di quanto previsto dal decreto “Cura Italia”.

L’iniziativa si inserisce nella più ampia strategia di contrasto alla disinformazione impostata sugli schemi dell’ autoregolamentazione, della promozione della trasparenza e della consapevolezza e dell’ empowerment dell’utente, e perseguita in Italia dalle istituzioni politiche in sinergia con Agcom e media appartenenti al mondo sia off line che on line.

ll fact-checker Pagella Politica (attivo dal 2012), scelto in via autonoma da Facebook (di cui è già collaboratore dal 2018), tramite Facta, dotato di profilo WhatsApp e di una numerazione dedicata, riceve da parte di chiunque sia interessato informazioni o contenuti relativi al tema Covid-19 per verificarne autonomamente l’autenticità. Il tutto in partnership con Facta.

Il numero +39 345 6022504 può dunque essere utilizzato da chiunque intenda segnalare con un semplice messaggio testuale o piuttosto l’invio di link, foto, video o audio, quelle notizie riguardanti la pandemia di cui si sospetta la dubbia veridicità.

Alla richiesta di verifica risponde una sorta di centro operativo di esame delle segnalazioni, composto da cinque membri scelti, cui farà seguito la notifica all’utente sull’attendibilità della notizia e, in caso di contenuto ingannevole e mistificatorio, la fake news verrà anche pubblicata, smascherata e spiegata sul sito web Facta, online dal 25 marzo 2020.

È prevista anche l’opzione di invio di resoconti giornalieri sulle attività di debunking.

Fonte immagine

La black list stilata da NewsGuard sugli account “fake” di Twitter

Vedremo presto se alleanze come quelle di Facta riusciranno ad impedire alla disinformazione di sfuggire alle maglie larghe delle forche caudine delle strategie di debunking.

Nel frattempo, la battaglia è persa.

Le indagini eseguite da NewsGuard su Facebook e Twitter non lasciano adito a dubbi di sorta.

NewsGuard, lanciato a marzo 2018 dall’imprenditore multimediale Steven Brill e dall’ex editore del Wall Street Journal Gordon Crovit, fornisce valutazioni di credibilità ed “etichette nutrizionali” dettagliate su migliaia di siti Web di informazione. Opera negli Stati Uniti, nel Regno Unito, in Italia, Germania e Francia.

Il metodo di valutazione seguito si basa sull’assegnazione di uno specifico punteggio determinato dalla sommatoria di valori numerici, a loro volta ponderati dalla rispondenza ad almeno nove criteri definiti “apocalittici” della pratica giornalistica: dal fatto che un sito pubblichi ripetutamente contenuti falsi, all’attenzione dedicata alla correzione e rettifica degli errori, alle policy predisposte in fatto di clickbaiting e titoli ingannevoli.

I punti ottenuti, se forniscono un valore inferiore a 60, indicano un livello di allerta “rischio fake” alto evidenziato in rosso. Se in verde e maggiore di 60, il rischio è invece basso e sta ad indicare la generale attendibilità dello specifico vettore di contenuti.

Dopo le testate giornalistiche che rappresentano oltre il 92 per cento del traffico Web, anche i maggiori social network sono stati oggetto di una recente ed attenta analisi da parte dell’organizzazione americana.

Prima Facebook, e subito dopo Twitter.

“Stavolta però abbiamo deciso di guardare ai social media, dato che molti siti di disinformazione poi riversano lì i propri contenuti dove vengono ripresi e diffusi”. Dichiarano i membri di NewsGuard.

I numeri tra le due piattaforme sono ovviamente diversi e proporzionali al loro seguito ma la particolare attitudine alla diffusione delle false informazioni non cambia.

Malgrado l’impegno profuso nelle rispettive strategie di contrasto alla disinformazione, le risultanze emerse dalle ricerche di NewsGuard non sono per nulla rassicuranti e soddisfacenti.

Tutt’altro.

Oltre 6 milioni di utenti Facebook, dopo la pubblicazione della segnalazione da parte di NewsGuard, hanno visto oscurarsi diverse pagine “seguite” perché ritenute pericolose.

Solo in Italia sono almeno dieci le pagine bollino rosso.

l mondo di Nelly, Luxury Fashion con oltre 1,7 milioni di like, Nel cuore delle donne, Il Nettare dell’amore, La vita, I pensieri folli di due sognatori, Ti amo, però, Un pensiero unico tu, Una favola nel cuore e Semplicemente Charlie. Tutti siti in apparenza dedicati ad altre tematiche sociali e di costume ma che in realtà spiccano per la vasta quantità di contenuti non validi e false dichiarazioni in tema Coronavirus a loro volta estrapolati da siti di disinformazione come ViralMagazine.it e FanMagazine.it. Entrambi già bollino rosso.

Oltre 5 milioni di utenti effettivi ed i loro like.

Altrettanto è toccato a Twitter e a 16 dei suoi account (tra Italia, Francia e Germania), per complessivi 616mila followers. Nel dettaglio gli analisti esperti di disinformazione si sono concentrati su quelle pagine social attive e con almeno 20 mila utenti iscritti o interessati a seguirne gli aggiornamenti, specie se incidenti su contenuti fuorvianti in tema Covid-19, in un frangente di tempo che inizia dal 18 marzo in poi.

Fanno parte della black list soprattutto vecchie volpi del web legate al mondo delle fake news e già note per le fantasiose performance dedicate alle tematiche risalenti alla teoria del complotto sull’11 settembre (il sito tedesco Compact-Magazin), al dibattito acceso sulle possibili connessioni tra vaccino ed autismo o sulle cause della guerra civile in Siria (il sito francese Egalite Et Reconciliation).

In Italia le pagine e i siti da bollino rosso hanno coinvolto gli account di alcuni influencer fanatici delle teorie complottiste e fervidi sostenitori di strane pozioni con prodigiosi effetti curativi.

Tra questi, quello di un ex parlamentare e psichiatra, Alessandro Meluzzi, con un seguito di 70.900 follower ai quali il prolifico informatore, che si autodefinisce anche “primate della Chiesa Ortodossa Italiana Autocefala Antico-Orientale nella quale Meluzzi veste i panni di arcivescovo con il nome di Alessandro I”, avrebbe trasferito una serie di illazioni e false rappresentazioni che vedevano il coinvolgimento di persone influenti come Hillary Clinton e Mark Zuckerberg o enti come la Gate Foundation e le Nazioni Unite.

Ma anche Byoblu, il sito del blogger Claudio Messora, ai cui 70 mila followers vengono “inoculate” massicce dosi di contenuti a quanto pare non adeguatamente verificati.

Il 19 marzo la pagina web ha pubblicato il parere di Stefano Montanari, ricercatore e divulgatore scientifico di riferimento per i movimenti No Vax, secondo il quale l’infezione da Covid 19 sarebbe “un’influenza con un grado di patogenicità molto basso e i soggetti colpiti sono quelli già affetti da gravi patologie pregresse”.

E altri account, portatori di false “perle di saggezza” spesso riconducibili a politici e giornalisti “affascinati dalle ricostruzioni complottistiche” su Bill Gates e Rockfeller che li vedono artefici della teoria per la quale la diffusione del virus sarebbe servita promuovere l’applicazione di un microchip digitale di loro creazione utile alla costituzione “del nuovo ordine mondiale”.

Alcuni nomi noti in tale frangente sono quelli di Patrizia Rametta, coordinatrice regionale della Lega in Sicilia, Cesare Sacchetti, autore del blog LaCrunaDellAgo.net, Elio Lannutti, senatore del Movimento 5 Stelle.

Tutti disinformatori seriali con un largo seguito, stando alla valutazione riportata da NewsGuard.

Per quanto ovvio anche YouTube non lesina disinformazione, sebbene, come le altre piattaforme digitali rivesta allo stesso tempo anche un ruolo strategico importante nell’ostacolarne lo sviluppo.

Purtroppo al momento non si dispone di uno studio approfondito sull’attendibilità, trasparenza ed accuratezza della maggior parte dei video di YouTube; tuttavia, sebbene in fase di prestampa sul Lancet, con risultati quindi preliminari e non ancora revisionati in modo indipendente, è già significativa l’analisi canadese di tre revisori che hanno codificato la fonte, il contenuto e le caratteristiche dei 150 video YouTube in lingua inglese, più visti in tema Covid-19.

Secondo le risultanze emerse dalla “prima stesura del manoscritto” redatta da Heidi Oi-Yee Li, Adrian MJ Bailey, e David Huynh e James WT Chan (operanti nel contesto della Facoltà di medicina, Università di Ottawa, del Dipartimento di Scienze della salute, Carleton University e della Divisione di medicina interna generale, dipartimento di medicina, ospedale di Ottawa) reperibile al seguente indirizzo web, oltre un quarto di questi contiene informazioni fuorvianti, raggiungendo milioni di spettatori in tutto il mondo.

La lettura delle 50 pagine del documento può rivelarsi utile e consigliabile per chi volesse valutarne la validità dei metodi seguiti (modified Discern e modified Jama dell’American Medical Association) e l’attendibilità delle rilevazioni a supporto.

I risultati, malgrado come evidenziato si pongano ancora in fase iniziale, costituiscono ad ogni modo interessanti spunti di approfondimento per l’implementazione di ulteriori strategie di contrasto alla diffusione dei contenuti video fake.

A maggior ragione se i suddetti risultati vengono letti alla luce dei rapporti di analisi già esistenti e relativi ai contenuti di YouTube durante le precedenti pandemie e focolai virali.

Questi ultimi, reperiti da fonti bibliografiche e database quali Pubmed, Medline ed Embase, evidenziano come YouTube sia stata allo stesso tempo un vettore tanto utile quanto anche fuorviante di informazioni durante le crisi epidemiologiche di H1N1, Ebola e Zika.

Circa il 23% – 26% dei video di YouTube, in gran parte originato da utenti indipendenti, risultò non attendibile. I contenuti derivanti da fonti governativi ed attendibili pur essendo di qualità altissima, non altrettanto erano caratterizzati da un vasto pubblico di spettatori.

La fruttuosa alleanza tra disinformazione e social: il caso plandemic

Emerge dall’intero quadro descritto come le piattaforme social forniscano un “godurioso palcoscenico” per la disinformazione il cui effetto di slancio incontrollato, partendo dai gruppi chiusi, può spingersi fino a raggiungere un pubblico estremamente ampio.

I creatori della disinformazione ne sono ben consapevoli tanto da aver appreso ed affinato con diligenza e maestria lo studio e la scelta delle varie tecniche espressive attraverso le quali tradurre le loro aspirazioni destinate alla rapida condivisione sui social ritenuti maggiormente profittevoli.

Un’alleanza di fatto che, forte anche dell’appoggio dei media mainstream, al momento si presenta vincente rispetto a quella speculare ed “organizzata ma debole” instaurata tra istituzioni e piattaforme.

Contenuti disinformativi in continua evoluzione e rinnovata credibilità, imperversano nel web.

Anche quando l’inattendibilità delle narrazioni ingannevoli viene svelata e resa nota, una nuova forma di appeal alimentata dal backfire effect, cattura il pubblico che, ispirato da una sorta di battaglia contro la censura, si focalizza sulla ricerca del link rimosso con ciò favorendone l’ulteriore diffusione.

È esemplare in tal senso il caso Plandemic, ovvero la prima parte di una produzione video dal titoloThe Hidden Agenda Behind Covid-19”.

Il 7 maggio scorso “lo spezzone” di una ventina di minuti – prodotto da un produttore americano, tale Mikki Willis, contenente l’intervista sconclusionata e cospirazionista resa da una biologa respinta dal suo stesso centro di ricerca – è stato pubblicato su Facebook, YouTube, Vimeo e su un sito web separato creato per condividere il video.

In Italia, Plandemic è circolato, con sottotitoli in italiano, sulla pagina Facebook “Il grande Inganno”.

Il successo, a livello globale, è stato enorme.

Il video è divenuto virale e ciò malgrado il contenuto fosse stato evidenziato dallo stesso social come “Informazione falsa. Verificato da fact-checker indipendenti” e dunque rimosso.

Anche il New York Times in un recente articolo ne ha illustrato in maniera dettagliata gli aspetti oscuri ed inattendibili.

Del tutto inutile, l’effetto cascata amplificato dal mainstream è stato dilagante.

Mikki Willis è divenuto istantaneamente famoso. Così la ricercatrice e biologa molecolare.

Le visualizzazioni sono salite oltre otto milioni tra YouTube, Facebook, Twitter. Instagram ha fatto il resto.

Solo su Facebook, riporta CrowdTangle il noto tool di analisi sociale, di ricerca e monitoraggio della disinformazione – il filmato contenente le dichiarazioni rese da Judy Mikovits, ricercatrice e biologa molecolare (un suo studio nel 2011 è stato ritrattato da Science), su uno strampalato complotto in cui compaiono anche Bill Gates e Anthony Fauci, il direttore dell’Istituto nazionale per le allergie e le malattie infettive (NIAID) nonche n.1 della task-force sul Covid 19 negli USA, è stato condiviso circa 2,5 milioni di volte.

Il contenuto cospirazionista, benché dichiarato fuorviante, è divenuto in breve tempo un autentico trionfo di condivisioni.

Come possiamo difenderci

In primis acquisendo consapevolezza della complessità della questione.

Le motivazioni alla base dei contenuti fuorvianti sono riconducibili ad alcuni filoni principali.

  • scopi di profitto: ovvero titoli infiammatori per incrementare il traffico di rete e generare entrate pubblicitarie (clickbait);
  • vantaggi geopolitici e di supremazia economica: in genere provenienti da attori statali animati da intenti tesi a promuovere i loro obiettivi politici e economici indebolendo la posizione dei rivali. Russia, Iran, Usa e Cina ciascun per proprio tornaconto;
  • ragioni di politica interna: attori locali di schieramenti opposti che manipolano ansia e paura suscitata dalla disinformazione per sostenere o smontare i rispettivi programmi politici. E noto il risalto mistificatorio dato alle politiche di anti-immigrazione rispetto alla chiusura delle frontiere a fini di contenimento del contagio;
  • convinzioni personali basate su teorie complottistiche e fataliste suffragate a loro volta da processi cognitivi falsati, mistificati e fuorvianti.

Tutti moventi che, mossi dal profitto o dalla semplice ingenuità e disattenzione, fanno leva sulla stimolazione di emozioni nei confronti dell’oggetto della notizia falsa;

Ogni persona è limitata dai propri sensi.

Delega la propria fiducia, spesso un semplice atto di fede in un clima che è di generale sfiducia (in modo particolare verso le istituzioni), per aumentare la propria conoscenza, lasciandosi facilmente sedurre da ciò che meglio nutre le proprie ansie e convinzioni, senza provocarne la messa in discussione.

Il fenomeno è noto come auto-polarizzazione e si alimenta degli stessi bias cognitivi abilitati dal network, come il fatto di ritenere affidabili le sole fonti che fanno parte del gruppo di valori in cui l’utente si riconosce o che sostengono tesi dallo stesso condivise.

All’auto-determinazione si unisce poi un ulteriore effetto; quello di Dunning-Kruger che prende il nome dagli studiosi che per primi lo individuarono: “meno sappiamo di un argomento più crediamo di saperne in merito”, ovvero chi è incompetente non si accorge della propria incompetenza sovrastimando il proprio sapere e sottovalutando quello altrui.

Tuttavia, persino una buona dose di consapevolezza e capacità di analisi critica da sole non bastano a sanare l’esigenza di verità scientifica.

Non è un caso che proprio lo stato di paura e confusione dilagante, causato dalla crisi sanitaria, economica, politica, sociale in corso, renda il pubblico particolarmente esposto e più incline a credere alle strampalate teorie complottiste come ai facili rimedi e alle soluzioni salviche di varia natura ma senza alcun fondamento, da quelle di natura mistica a quelle tecnologiche.

La ricerca di un capro espiatorio su cui scaricare responsabilità appare come un’esigenzache, in tale frangete emergenziale, si dimostra particolarmente sentita.

La stessa viene abilmente intercettata dai creatori della disinformazione, tradotta in contenuti destinati al web e al social network e così piegata a scopi ben ragionati.

L’universo digitale nella duplice veste di vittima e carnefice della disinformazione si rivela in tale frangente un’arma a doppio taglio da maneggiare con cura: se da una parte infatti Facebook, Twitter, Google e altri, si prodigano in attività di analisi della veridicità e contrasto alla mistificazione, dall’altra con maggiore enfasi prestano il fianco al disturbo dell’informazione riducendone praticamente ai minimi termini i il costo e il fattore di rischio della diffusione oltre che incrementandone non poco velocità ed effetto.

Le varie declinazioni delle tecniche di fact-checking e debunking di riconoscimento automatico, per quanto animate dai migliori intenti e dalle tecnologie più performanti, risultano limitate e poco efficaci quando addirittura non si pongono in contrasto con gli stessi fini che perseguono.

Il social fact-checking, ovvero quella particolare forma di controllo dei contenuti auto-gestita dagli stessi utenti, la cui validazione non dipende dalla verifica della veridicità dei fatti e della narrazione, bensì dal semplice fatto che la notizia venga condivisa e non prontamente rimossa, si sostituisce al fact-checking professionale. Le fake news si diffondono, acquistano credibilità nei gruppi chiusi dei social come nelle chat private e gestirle diviene molto complesso.

A maggior ragione in una società in piena crisi e dunque fortemente polarizzata, credo non si possa prescindere da un sorta di ripensamento scevro da pregiudizi dello strumento del digital storytelling inteso questo sia come metodo di comunicazione efficace a disposizione delle fonti di informazione autentiche, sia come elemento di analisi del nuovo e dirompente fenomeno della post-verità e dei contenuti artefatti.

Tanto potrebbe rivestire un’importanza cruciale soprattutto per la definizione delle pertinenti strategie di debunking e successivamente nell’attuazione delle conseguenti attività di comunicazione e narrazione veritiera.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati