Si sta diffondendo, negli ultimi mesi, la pratica di rimuovere i contenuti anti-vaccinazione dai social media, i quali però non adottano tutti le stesse misure né gli stessi criteri. Alcuni hanno adottato policy specifiche, mentre altri si conformano di volta in volta alle normative locali, rischiando così di generare un clima di incertezza sospeso tra censura arbitraria e dovere di buona informazione.
I no vax senza freni sui social: solo una nuova “cittadinanza digitale” ci può salvare
La mossa di YouTube
Alla fine di settembre, YouTube ha annunciato di aver cominciato a chiudere canali di “attivisti anti-vaccino”: qualsiasi contenuto presenti affermazioni su una presunta pericolosità dei vaccini, sul loro scarso funzionamento nel contenere la diffusione del Covid-19 o su un presunto rapporto di causa-effetto con l’autismo, il cancro o l’infertilità, verrà d’ora in poi rimosso. La nuova policy riguarderà tutti i vaccini, non solo quelli anti-Covid.
La piattaforma video più famosa del mondo aveva già in precedenza adottato delle regole per contrastare la disinformazione sul coronavirus, rimuovendo circa 130.000 video nell’ultimo anno. I gestori della piattaforma social hanno notato che, spesso, il tema dei vaccini anti-Covid si allarga alla promozione di scetticismo nei confronti delle vaccinazioni in generale. Quindi, YouTube ha deciso di ampliare le politiche di rimozione dei contenuti non in linea con la propria policy.
Spesso, infatti, i video di YouTube rappresentano la fonte della maggioranza della cattiva informazione sui vaccini, sia perché nonostante le forme automatiche di controllo risultano difficili da verificare, sia perché generano un gran numero di interazioni e condivisioni attraverso gli altri social. È proprio la loro natura controversa ad alimentare ulteriormente gli algoritmi dei social che premiano contenuti divisivi ad alto tasso di interazione, anche a scapito della validità scientifica.
Hanno subito il ban, tra gli altri, anche gli account di alcuni famosi personaggi critici delle vaccinazioni come quello del medico osteopata, Joseph Mercola, una vera star del campo anti-vaccinista e della cosiddetta medicina naturale con circa mezzo milione di iscritti al suo canale, e quello di Robert F. Kennedy Jr. Tutti e due parte di quella che è stata definita dal Center for Countering Digital Hate anglo-americano la “dozzina della disinformazione”: 12 persone che sarebbero responsabili del 65% dei messaggi contro i vaccini su tutto il web.
Le critiche del presidente Biden ai social
Il Presidente degli USA Joe Biden, a luglio, aveva criticato aspramente i social network accusandoli di “uccidere le persone” permettendo la circolazione senza contrasto della disinformazione sul Covid-19 e sui vaccini.
Facebook aveva respinto le accuse, sostenendo di essere stato di aiuto alla corretta informazione medico-sanitaria e uno strumento operativo prezioso grazie al “Vaccine Finder”, servizio online per facilitare la ricerca dei centri vaccinali più vicini all’utente. Proprio Facebook, tra l’altro, aveva inaugurato a febbraio una nuova policy che prevede la rimozione dei post che contengono informazioni errate su Covid-19 e vaccini, ma la piattaforma rimane protagonista della circolazione di tali contenuti.
Solo un mese più tardi, anche Twitter aveva istituito la propria policy relativa al coronavirus, secondo la quale ci sono alcuni step prima di arrivare al ban dell’account.
L’approccio differente dei vari social crea delle asimmetrie che, per il meccanismo di condivisione tra una piattaforma e l’altra, non riesce ad essere efficace nel contrasto alla disinformazione.
Il citato dottor Mercola, per esempio, nonostante la chiusura del canale YouTube, vede ancora attivo il suo account Twitter con i suoi 320.000 follower, per non dire di Facebook e Instagram, dove, sommati, si arriva ai 3 milioni circa di seguaci.
Robert Kennedy Jr., nipote del Presidente USA assassinato a Dallas nel 1963, ha visto chiudere il proprio account Instagram, mentre i profili Facebook e Twitter sono in funzione. Tutto ciò a dispetto del fatto che Instagram e Facebook fanno entrambi capo alla stessa proprietà e quindi dovrebbero adottare politiche uniformi.
La reazione internazionale alla nuova policy YouTube
La nuova politica di YouTube ha causato anche una polemica internazionale. La piattaforma, infatti, nel rispetto delle sue nuove linee guida, ha chiuso in Germania due canali della nota media company statale russa: RT DE (RT Germania) e “Der Fehlende Part”, in quanto avrebbero veicolato contenuti scorretti a proposito del Covid-19 e dei vaccini.
Da Mosca è arrivata una reazione dai massimi livelli delle istituzioni: il portavoce della Presidenza, Dmitrij Peskov, e il Roskomnadzor (l’autorità delle comunicazioni russa) hanno lanciato un’accusa di censura, mentre il Ministero degli Esteri ha inquadrato il ban come parte di un conflitto informativo, definendolo un “atto di aggressione ai media senza precedenti” che richiede una risposta. Dalla Russia, infatti, si arriva a minacciare il blocco di YouTube e di Deutsche Welle se i canali russi non dovessero essere resi nuovamente disponibili.
Google ha risposto ricordando come RT DE, prima della chiusura del canale, fosse stata più volte richiamata per questi motivi, subendo già il blocco di nuovi contenuti per una settimana.
Telegram e la chiusura del canale no-vax
L’Italia stessa è finita nell’occhio del ciclone della censura da parte dei social network.
Il 28 settembre, il canale Telegram “Basta dittatura” è stato oscurato dall’azienda – grazie anche alla richiesta di collaborazione presentata dalla procura di Torino – a seguito della diffusione di messaggi minatori contenenti dati sensibili di politici e medici italiani.
La chat, composta da 40mila utenti no vax e no green pass, era finita nel mirino di Telegram già da tempo. Diversi sono stati gli avvertimenti da parte della società, ma il mancato rispetto dei termini di servizio da parte degli utenti ha reso necessario oscurare il canale.
Lo stesso fondatore e CEO di Telegram, Pavel Durov, è intervenuto sulla questione italiana con un post sul proprio canale in cui ha ritenuto necessario sottolineare come la scelta di Telegram non sia orientata a limitare la libertà di espressione, bensì intenda evitare che episodi di istigazione all’odio e diffusione di dati sensibili vengano ulteriormente diffusi sulla piattaforma.
Sempre Durov aveva già spiegato in un dettagliato post la politica aziendale in tema di moderazione e cancellazione dei contenuti, specificando la scelta di conformarsi alle policy adottate da Google e Apple in merito ad un’App relativa alle recenti votazioni in Russia. Dal punto di vista di Telegram, pur volendo permettere il maggior grado di libertà possibile ai propri utenti, ciò non può risultare in un contrasto con norme locali legittime e/o con le policy adottate da altri big del settore. In ragione delle peculiarità delle varie piattaforme, la risposta dovrà essere ovviamente diversificata, ma mai tale da porsi in contrasto con ordini statali o con i termini di servizio di Telegram, anche considerando l’impossibilità di non ottemperare a richieste a cui già si sono conformate, ad esempio, Apple e Google.
Conclusioni
Il blocco di canali e account è solo uno dei passi che si possono intraprendere per contrastare la disinformazione sulle vaccinazioni, accanto alla promozione di contenuti promossi dalla comunità scientifica. È importante, però, che le regole siano sempre chiare e note agli utenti, e possibilmente coordinate tra i vari social media, di modo da evitare che la pratica del ban si trasformi in un potere arbitrario di decidere chi può comunicare e cosa, ma anche che la cattiva informazione non passi semplicemente da piattaforme più regolate a quelle che lo sono di meno.