disinformazione

Fake news, i social alla guerra finale: i nuovi scenari

La risposta delle piattaforme social per arginare la diffusione di notizie false sul coronavirus e non solo si rivela insufficiente. L’intelligenza artificiale serve a poco. E ora i social sono pronti a superare l’ultimo tabù: arginare le fake news della politica. Ecco perché la battaglia diventerà più cruenta

Pubblicato il 28 Mag 2020

Alessandro Longo

Direttore agendadigitale.eu

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017

Lucas Pinelli

Studio legale Martorana – Vice President for Marketing, ELSA Belgium

fakenews

La mossa di Twitter, che per la prima volta ha etichettato come possibili fake due tweet del presidente Usa Donald Trump, evidenzia una escalation nella battaglia alle fake news da parte social. Fino al punto di rischiare conseguenze politiche ai massimi livelli.

Probabilmente è solo all’inizio di una resa dei conti tra social e politica, per effetto della crisi suscitata dalla pandemia e dall’incombere delle elezioni americane di novembre.

Sappiamo che le piattaforme tecnologiche da tempo usano fact checker e algoritmi di intelligenza artificiale per limitare le fake news. Eppure, nel contesto pandemico attuale di Covid-19, varie notizie false nonché teorie complottiste si sono sparse per il web.

Questo dato di fatto ci porta a porci alcune domande. Quali sono gli sforzi messi in atto dalle piattaforme per contrastare le fake news? Come fanno i teorici delle cospirazioni ad aggirarli? Cosa possono fare i singoli cittadini per limitare l’espandersi delle notizie false?

Gli strumenti dei social network contro le fake news

Insieme all’uso delle segnalazioni fatte dagli utenti e l’impiego di esperti in fact checking per controllare le notizie che circolano in esse, già dal 2017 le piattaforme social fanno un uso sempre più ampio di algoritmi nella lotta alle fake news.

Tali algoritmi si basano sulla tecnologia di deep learning che si fonda su un sistema di reti neurali che permettono di fare previsioni e assumere decisioni in modo indipendente e non basate sul mero utilizzo di regressioni statistiche e processi matematici.

Questi sistemi però necessitano di apposito addestramento, ovvero quella fase nella quale vengono inseriti numerosi dati composti da esempi e controesempi. Tramite il training set, il modello impara come riconoscere le caratteristiche peculiari (feature) delle fake news, riuscendo così a distinguerle dai normali contenuti.

Così, Facebook ha recentemente dettagliato gli aggiornamenti che ha apportato ai suoi sistemi di intelligenza artificiale per rilevare discorsi di odio e disinformazione. Il gigante della tecnologia afferma che l’88,8% delle pubblicazioni rimosse in questo trimestre sono state rilevate dagli algoritmi, rispetto all’80,2% nel trimestre precedente. I sistemi possono inoltre rimuovere automaticamente i contenuti se hanno la certezza che si tratti di discorsi di odio, ma nella maggior parte dei casi il controllo umano rimane fondamentale.

I miglioramenti sono frutto dei progressi della ricerca nel campo dell’intelligenza artificiale che consentono alle reti neurali di essere addestrate sul linguaggio senza alcuna supervisione umana, permettendo quindi agli algoritmi di decifrare in modo più accurato il significato delle varie pubblicazioni. Inoltre, i sistemi di Facebook possono ora analizzare contenuti composti da immagini e testo combinati, come memes di odio.

Nonostante questi aggiornamenti, però, l’IA non ha avuto un ruolo così importante nella gestione dell’ondata di disinformazione sul coronavirus, come le teorie cospirazioniste sull’origine del virus e le false notizie sulle cure. Facebook si è invece principalmente affidato a revisori umani di oltre 60 organizzazioni partner di fact checking. Solo qualora una persona segnali un contenuto, come un’immagine con un titolo fuorviante, i sistemi di intelligenza artificiale ricercano elementi identici o simili ai quali aggiungono automaticamente messaggi di avvertimento, oppure vengono cancellati. Nessun modello di apprendimento automatico è stato addestrato al momento per trovare nuovi casi di disinformazione. Tali modelli necessitano un numero elevato di dati corretti, aggiornati e il più possibile variegati per far sì che l’algoritmo sviluppi la propria logica in modo efficace e non iniquo.

Gli algoritmi possono quindi rilevare contenuti simili a quelli che hanno visto prima, ma mostrano i loro limiti quando compaiono nuovi tipi di disinformazione.

Inoltre, se Facebook e YouTube si sono impegnati a promuovere solo le notizie basate su fonti autentiche e rimuovere quelle false, queste ultime riguardano esclusivamente notizie che possono danneggiare direttamente le persone o violare leggi. “La pubblicazione di semplici notizie smentite su temi dibattuti invece non sono rimosse, ma Facebook mostra all’utente un avviso che ne mostra l’infondatezza e un link per approfondire la questione (dai primi dati, così ne riduce del 95% la diffusione)”.

Gli sforzi non bastano, le fake news circolano sempre: ecco perché

In generale, è sotto gli occhi di tutti che gli sforzi dei social sono insufficienti a contrastare il fenomeno. Arrivano troppo tardi e spesso con troppa debolezza e in modo non definitivo. Da ultimo, si veda la ricostruzione del New York Times su come il video complottista Plandemic ha fatto 8 milioni di utenti in poco tempo (più di quelli di video mainstream), sfruttando account social di personalità note, gruppi con molti follower e siti vicini ai movimenti alt-right. I social sono intervenuti solo dopo che i buoi ormai erano scappati.

Diversi fattori permettono di capire perché le fake news continuano a circolare. Il primo fattore è sicuramente l’azione limitata messa in atto dalle piattaforme.

  • Infatti, se le piattaforme cancellano i contenuti contrari alle loro regole, gli autori non vengono però espulsi e sono quindi liberi di pubblicare nuovi contenuti che a volte persino rispettano le regole delle piattaforme pur sostenendo tesi cospirazioniste.
  • O più semplicemente postano lo stesso contenuto con un link diverso, per esempio tratto dalla pagina archiviata su Archive.org o incollato su Medium, com’è successo.
  • Difficile scoprire e bloccare i contenuti che circolano in gruppi privati, community chiuse. Anche se sono interne a Facebook, i contenuti fasulli non sono identificati perché nessuno dei frequentatori li segnala, essendo tutti loro della stessa opinione.
  • Un altro modo per i propagatori di fake news di aggirare la cancellazione dei video su YouTube ad esempio è farsi intervistare sui canali di altri utenti, permettendo non solo di mantenere un certa visibilità ma anche di espandere il proprio circolo di influenza.
  • Infine, tra il momento in cui un contenuto è pubblicato e quello in cui viene rimosso ha potuto raggiungere migliaia – se non milioni – di visualizzazioni. I contenuti fasulli sono troppi perché gli strumenti dei social possano bloccarli tutti. Se ne riescono a bloccare il 60-70 % (come risulta da diverse ricerche), ne restano comunque tanti. E com’è visto non si riesce ad automatizzare più di tanto il contrasto al fenomeno.

Inoltre, ben spesso le istituzioni pubbliche faticano a rendere le informazioni “attraenti” quanto possono esserlo le fake news. Le autorità pubbliche non sembrano capire come si muovono le informazioni nell’era digitale. Nel frattempo, le persone che comprendono meglio quali contenuti potrebbero diventare virali stanno usando queste conoscenze per diffondere appunto fake news. Dirigere quell’attenzione è diventata una vera e propria lotta di potere. Da quando la sfera sociale (precedentemente condotta offline) e la sfera informativa (precedentemente dominata da istituzioni riconosciute e notiziari) si sono fuse in un unico spazio, sono ormai governate dallo stesso arbitro: algoritmi di gestione. I creatori che hanno capito come funzionavano questi algoritmi sono diventati influenti, mentre le istituzioni più tradizionali hanno prestato poca attenzione alle nuove dinamiche in base alle quali la capacità di attirare l’attenzione e modellare la percezione dipende da quello che potremmo chiamare il “consenso dei più amati”: se un numero sufficiente di persone clicca su qualcosa, i social media trovano che è degno di essere promosso ad un numero ancora più elevato di persone. E quindi anche esprimere il proprio dissenso mediante una qualsiasi interazione sui contenuti che promuovono notizie false ha come conseguenza di dare più visibilità a quel contenuto.

Un ruolo di diffusori di fake news possono averlo del resto anche medium tradizionali (spesso di area conservatrice, come Fox News), personalità pubbliche con molti follower, noti politici (Trump, Bolsonaro), come evidenziato da alcune ricerche.

A complicare lo scenario, questi contenuti si appoggiano a elementi apparentemente autorevoli, come premi nobel (fuori usciti dalla comunità scientifica) o pubblicazioni best seller (come il libro da cui è tratto il video Plandemic); il che solleva un’altra questione: è corretto chiedere ai social di bloccare un video ma ad Amazon di togliere il libro da cui è tratto? Solo perché un contenuto social è più potentemente virale? Tra l’altro, quindi, la questione delle fake news nell’era digitale costringe a mettere in discussione i nostri principi e parametri mentali intorno alla libertà di espressione.

I social e la politica

Non possiamo prevedere le conseguenze dell’escalation, anche politica, da parte dei social nella lotta alle fake news. Storicamente hanno cercato di rivendicare un ruolo neutrale (sulla scia della normativa internet degli anni ’90, sulla neutralità degli intermediari), a cui però hanno dovuto rinunciare progressivamente nella propria attività di moderazione dei contenuti, per proteggere il proprio modello di business.

Prima l’hanno fatto eliminando quelli illegali (che violano il copyright e leggi penali); poi anche quelli falsi se potenzialmente dannosi. Sola eccezione, finora, quelli dei politici. I social, Facebook in primis, infatti hanno sempre cercato di tenersi al di fuori dall’agone politico, anche per non alterare gli equilibri con la Casa Bianca.

La mossa di Twitter forse è il primo segno che anche quest’ultimo tabù, attorno al ruolo e alla responsabilità dei social, è crollato. Twitter era già intervenuta si contenuti di politici non americani, ma è notevole che per la prima volta lo faccia su Trump. Perché è il presidente della principale potenza mondiale e contemporaneamente del Paese dov’è di casa Twitter e che più ha usato Twitter come strumento di propaganda “disintermediata”.

La loro responsabilizzazione progressiva è sempre un’arma a doppio taglio. Lo è verso i cittadini, perché più interventi sui contenuti significa più tutela dell’informazione corretta ma anche maggiore rischio di censura (anche involontaria) delle opinioni divergenti.

Fine dello statuto speciale per internet?

E’ arma a doppio taglio per gli stessi social: se intervengono di più si proteggono dall’accusa di favorire complottismi e disinformazione, magari di origine straniera (come successo a Facebook nelle vicende delle elezioni di Trump del 2006 e della Brexit); ma al tempo stesso rischiano di più di essere etichettati come non neutrali e di parte, con conseguenze normative e anche politiche. Non a caso, la prima reazione di Trump è stata di minacciare i social (“censurano i conservatori. Li chiuderemo”). Adesso ha firmato un decreto che aumenta – teoricamente – le possibilità di rispondere legalmente per i contenuti lì presenti, in deroga alla storica Sezione 230 del Communications Decency Act che dal 1996 ha permesso agli intermediari internet (come anche Google, i provider di hosting) di offrire contenuti di terze parti. E che ha permesso quindi la internet come la conosciamo ora. Lo stesso Act che anche l’avversario di Trump nella corsa alla Casa Bianca, Joe Biden annuncia di voler rivedere. A conferma che è ormai bipartisan l’idea che le regole base della rete siano ora inadeguate. Alla luce del fatto che si è passati da un era in cui bisognava proteggere tutti i nuovi soggetti di internet con un regime speciale, consentendone la crescita e l’innovazione, a un presente in cui quegli stessi soggetti sono ormai un oligopolio in crescenti ambiti pubblici e privati (l’informazione, la pubblicità; la gestione dei dati personali di miliardi di persone).

Non è detto che si andrà verso un maggiore interventismo dei social sui contenuti (non nel breve-medio periodo, forse); ci potrebbero essere nuove tentazioni di un approccio hands-off di de-responsabilizzazione, come quello avuto da Facebook nel 2019. Che reagendo alla crisi di Cambridge Analytica ha voluto promuovere forme di comunicazioni private e privacy oriented (il social non può essere responsabile di ciò che non può vedere perché privato e crittografato) e ha scelto di non intervenire affatto su post e pubblicità di politici.

In ogni caso, quel magico equilibrio – tra neutralità e ottimizzazione algoritmica dei contenuti – in cui hanno prosperato i social finora si è rotto definitivamente e dovranno fare sempre più i conti con il proprio ruolo (e responsabilità) socio-politica. Forse al pari degli altri media.

Cosa possono fare i singoli cittadini

Prima di vedere se e come i social riusciranno a contrastare meglio il fenomeno, c’è qualcosa che i cittadini possono fare in prima persona.

La crescita di consapevolezza delle masse risolverebbe nel migliore dei modi il dilemma – nel difficile equilibrio tra tutelare la libertà di espressione e la corretta informazione.

Di fronte al diffondersi delle fake news in un contesto di pandemia, Europol – l’Ufficio Europeo di Polizia – ha espresso delle linee guide sul proprio sito a destinazione dei cittadini:

1. Capire se sono di fronte a informazioni false.

  • Maturare la consapevolezza – notizie false esprimono spesso cosa si desidera sentirsi dire con titoli clickbait.
  • Guardarsi intorno: il sito Web è affidabile? Controllare le informazioni sulla pagina, sulla missione e sui contatti del sito web.
  • Controllare le fonti – c’è qualche altra fonte che riporta la stessa notizia? Quante fonti sono citate?
  • Ricerca fotografica: la notizia contiene delle foto che sembrano fuori contesto? Eseguire una ricerca online, potrebbe essere l’indizio per capire che si tratti di disinformazione.
  • Controllare la data: alcuni siti ripubblicano vecchi post o promuovono vecchie notizie come storie attuali. Controllare la data di pubblicazione dell’articolo e controllare se la sequenza temporale a cui si fa riferimento.
  • Rivolgersi agli esperti: visitare siti Web affidabili, come l’Organizzazione mondiale della sanità, la autorità sanitarie nazionali e la Commissione europea. Le informazioni sono disponibili anche lì?

2. Se si trovano informazioni false, non interagire con esse. Non commentare e non condividere ulteriormente. Ciò contribuirebbe solo a rendere il post più popolare.

3. Se è stato condiviso sui social media, segnalare il post alla piattaforma. Se si conoscono persone che hanno condiviso le notizie false, inviare un messaggio privato e dire che le informazioni che hanno pubblicato sono probabilmente false. Inviare loro questi suggerimenti in modo che comprendano i rischi.

4. Contribuire alla condivisione delle informazioni ufficiali. Condividi gli aggiornamenti da siti Web affidabili e ufficiali che riportano su COVID-19.

È pertanto fondamentale non interagire con i contenuti falsi e condividere in modo sistematico le notizie provenienti da fonti ufficiali così da spingere gli algoritmi delle piattaforme a promuovere sempre di più questi ultimi rispetto alle fake news.

Se crescerà la literacy dei cittadini, la crisi delle fake news si trasformerà da problema a opportunità per costruire una cittadinanza migliore, più matura, quando vota e si esprime, più protetta dai populismi. A beneficio della tenuta della società democratica.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati