Il recentissimo attacco a Capitol Hill portato avanti da un gruppo di sostenitori di Trump ha sconvolto il mondo intero, in quanto simbolo del pericolo che l’errata informazione, unita alla violenza, può costituire per la democrazia stessa.
L’evento giunge al fine di una serie di dichiarazioni fatte da Donald Trump sia tramite i social che nel corso dei propri comizi e delle interviste, nelle quali lo stesso sosteneva che le elezioni fossero state truccate, che Joe Biden fosse stato ingiustamente eletto e che dovesse esser fatta luce sui presunti brogli elettorali posti in essere dall’avversario politico e dalla sua squadra.
A nulla è servito procedere ad una attenta verifica dei risultati elettorali, ritenuti immotivatamente “corrotte” e “manipolate”.
Ciò che preoccupa, ora, è la facilità e la velocità con la quale le piattaforme social sono state utilizzate per diffondere messaggi di disinformazione e odio, persino da parte di esponenti politici di spicco come l’uscente presidente USA, e quanto sia difficile contrastare in maniera efficace e tempestiva tale fenomeno.
La reazione dei social network ai post di Trump
Dinanzi alla rivolta, Trump ha assunto una posizione coerente con le ideologie sinora sostenute, invitando i manifestanti a tornare a casa e, allo stesso tempo, dando il proprio sostegno e il proprio affetto ai sostenitori che stavano manifestando contro un risultato elettorale “fraudolento”.
Tali affermazioni erano contenute non solo in una serie di messaggi condividi sui social, ma anche all’interno di un video nel quale il Presidente uscente, seppur sostenendo che fosse necessario riportare l’ordine nel Congresso, continuava ad affermare che le elezioni gli erano state sottratte.
Le reazioni dei social alla risposta fornita da Trump sono state tempestive e particolarmente severe rispetto a quanto avvenuto in passato:
- Twitter ha definitivamente rimosso (dopo averne inizialmente solo impedito la condivisione o il commento, per “rischio di violenza”) i tweet nei quali Trump affermava di sostenere la rivolta in corso, in quanto contenenti “ripetute e gravi” violazione delle norme sulla disinformazione elettorale che regolano la piattaforma (c.d. Civic Integrity Policy). “Le future violazioni delle Regole di Twitter, incluse le nostre norme sull’integrità civica o sulle minacce violente, si tradurranno in una sospensione permanente dell’account @realDonaldTrump” ha affermato il CEO della piattaforma;
- Il video registrato da Trump è stato contestualmente rimosso dalla piattaforma Youtube di Google. In un comunicato, YouTube ha affermato che il video violava le politiche della piattaforma relative ai contenuti che sostengano vi siano state frodi diffusi o errori che hanno modificato il risultato delle elezioni;
- Lo stesso dicasi per Facebook, la nota piattaforma di Zuckerberg, che ha provveduto a bloccare temporaneamente la pagina di Trump, impedendogli di pubblicare qualsivoglia contenuto per 24 ore (blocco ora esteso sino alla fine del mandato), per aver commesso due violazioni delle policies di gestione della piattaforma. Il blocco è stato esteso anche al suo profilo Instagram. Al momento, alla luce della gravità della situazione, su Facebook ed Instagram si sta procedendo anche alla rimozione di tutti i contenuti che elogiano l’insurrezione, i video e le foto dei manifestanti, o messaggi di “chiamata alle armi” che possano promuovere attività criminali. In aggiunta a tali misure, ulteriori provvedimenti stanno venendo presi in considerazione, anche se non ne è ancora nota la portata;
- Anche su Snapchat, piattaforma gestita dalla società Snap Inc., il profilo di Trump è stato temporaneamente bloccato.
Assalto al Congresso Usa: crisi della democrazia e ruolo del digitale
L’azione congiunta dei social rappresenta un unicum nella storia moderna: sinora, infatti, le piattaforme hanno adottato misure piuttosto “soft” nei confronti dei messaggi pubblicati da Trump (con la parziale eccezione di Twitter, il primo a bloccare suoi tweet), tra cui, come detto, l’applicazione di limitazioni alla condivisione o di “badge” che identificassero un determinato contenuto come potenzialmente lesivo per l’utenza, in quanto riportante contenuti non verificati o altro.
A queste mosse ad personam si sommano un ulteriore giro di vite di Facebook, Twitter contro gruppi e post cospirazionisti e che inneggiano ai fatti di Washington o ad azioni simili.
Sebbene non ci si possa esimere dall’interpretare tale presa di posizione in modo positivo, in quanto simbolo di un cambio di rotta nella lotta alla disinformazione e alla diffusione dell’odio online, non ci si può esimere dallo svolgere una valutazione d’insieme di quanto appena accaduto, nonché delle cause di fondo che hanno fatto sì che un evento simile potesse accadere.
Il timore manifestato da molti studiosi, infatti, è che il danno arrecato dalle teorie cospirazioniste alla democrazia sia tale da aver alterato il senso di realtà degli utenti, ben oltre i semplici confini elettorali estendendosi ad ogni aspetto rilevante della società.
Il caso Parler
Di particolare rilievo è quanto accaduto sulla piattaforma Parler, utilizzata, stando a quanto recentemente emerso, proprio dai manifestanti al fine di organizzare l’evento e diffondere, in modo capillare, notizie e opinioni sui presunti brogli elettorali (come detto, presunzioni rivelatesi del tutto infondate, alla luce delle verifiche svolte dalle autorità statunitensi competenti).
Scaricata ad oggi da 10 milioni di persone (80% negli Usa), la piattaforma nasce nel 2018 proprio in risposta alle modifiche applicate dai “Big” della Silicon Valley alle proprie policies, divenute, a parere dei suoi fondatori e degli utenti che la popolano, eccessivamente rigide, poco trasparenti e contrarie al principio della libertà di parola. Nel corso degli ultimi anni, infatti, sono state molteplici le occasioni nelle quali Twitter, in particolar modo, ha impedito ad account estremisti di pubblicare contenuti, al fine di limitare la diffusione, sulla piattaforma, di messaggi di odio e violenti.
Tra fondatori e principali sponsor ci sono repubblicani.
“Parla liberamente ed esprimiti apertamente, senza paura di essere “deplatformed” (n.d.a. letteralmente “depiattaformato”, ossia censurato, messo a tacere, eliminato dalla piattaforma) per le tue opinioni. Interagisci con persone reali, non con i bot.”, si legge sul sito dell’applicazione. È palese come l’obiettivo della piattaforma sia quello di costruire un nuovo spazio neutrale di socializzazione, nel quale tutti coloro che si ritengono “censurati” da Twitter, Facebook o Google possano confluire ed esprimere le proprie opinioni.
Tuttavia, il passo tra libertà di pensiero e disinformazione, sul web, è talmente sottile da essere quasi del tutto inesistente: è così che le maglie di Parler, particolarmente ampie, divengono terreno fertile per cospirazionisti, teorie del complotto, fake news e gruppi estremisti come QAnon, Boogaloo e Proud Boys, i cui membri hanno utilizzato il social per organizzare l’assalto a Capitol Hill. Il leader di questi ultimi, in particolare, ha utilizzato Parler per diffondere indicazioni su come evitare gli sbarramenti delle forze dell’ordine, come forzare porte e finestre, financo dove erano collocate le postazioni della polizia.
A seguito dei risultati delle elezioni americane, infatti, nonché in risposta all’applicazione, da parte di Twitter, di avvisi di infondatezza e falsità sui tweet di Donald Trump, la App ha registrato circa 4 milioni di nuovi iscritti, giungendo ad un traguardo di quasi 8 milioni di utenti.
Stando a quanto affermato da John Matze, CEO e co-fondatore di Parler, nell’intervista svolta da Kara Swisher, giornalista americana del Ney York Times e conduttrice del podcast “Sway”[1], ciò che attrae gli utenti è la possibilità, sulla piattaforma, di sentirsi maggiormente liberi. Ogni utente è libero di operare sulla piattaforma senza alcuna imposizione da parte di algoritmi. I contenuti, infatti, sono automaticamente rimossi esclusivamente quando rappresentanti attività illecite, come, a titolo esemplificativo:
- Materiale pedopornografico;
- Nudità;
- Violazioni dei diritti d’autore;
- Contenuti legati a organizzazioni terroristiche;
- Post contenenti dati personali come indirizzi di residenza, numeri di telefono, e-mail di soggetti terzi;
- Altri contenuti dichiaratamente illeciti in quanto in violazione di leggi o provvedimenti emanati dalle autorità giurisdizionali.
Per il resto, si affida la rimozione di potenziali contenuti illeciti ad un sistema di “voto” del tutto peculiare, basato su di una “giuria indipendente”. Come evidenziato dalla Swisher, tuttavia, un simile sistema di moderazione, in quanto affidato all’uomo, soffre inevitabilmente dei suoi stessi difetti e non può essere mai considerato del tutto “imparziale e indipendente”, specialmente all’interno di una piattaforma i cui utenti si sono dimostrati particolarmente schierati.
Persino la neutralità dello stesso Matze, prosegue la giornalista nel corso dell’intervista, è particolarmente discussa, essendosi lo stesso spesso schierato apertamente a favore di Trump e delle sue politiche.
Peculiare è anche la modalità di gestione degli ads sulla piattaforma: chiunque possieda il badge di “Verified Parler Citizen”, è libero di poter pubblicare annunci pubblicitari dal contenuto eterogeneo (salvo essi non contengano materiale illecito secondo quanto sopra enunciato). Come affermato da Matze nel corso dell’intervista, molti degli annunci pubblicati sono a sfondo politico, pubblicati prevalentemente da repubblicani.
Il tutto è pienamente conforme alla linea di pensiero del suo fondatore, dichiaratosi apertamente contrario ai metodi di moderazione dei contenuti delle discussioni online attuati da Twitter e Facebook, in quanto lesivi dei diritti e delle libertà dei cittadini, i quali sarebbero perfettamente in grado di discernere i contenuti lesivi da quelli veritieri, oltre che di filtrare i messaggi di odio. Matze afferma altresì che dare agli utenti la libertà di parlare liberamente concede anche agli altri la possibilità di individuare in modo più tempestivo le persone che diffondono odio sui social, e di attribuire loro le dovute responsabilità, non essendo possibile costringere le persone coattivamente a credere in qualcos’altro.
La Swisher, tuttavia, nel corso dell’intervista evidenzia come ciò non sia corrispondente alla realtà e sia, anzi, smentito dal crescente dilagare di fake news e disinformazione sui social. Inoltre, afferma che non può parlarsi di “neutralità” su un social i cui utenti, investitori, advertiser e “giudici” sono apertamente schierati a favore di una o dell’altra opinione, sia essa politica o sociale.
Fatto, questo, dimostrato da quanto accaduto su Parler nel corso dell’assalto: il video pubblicato da Trump nel quale lo stesso invitava i manifestanti a disperdersi denunciando, parallelamente, frodi elettorali, è stato accolto, solo nella prima ora dalla sua pubblicazione, con oltre 14mila voti positivi e 5mila commenti. Su Twitter, viceversa, imperversavano le richieste di chiusura da parte degli utenti, dell’account di Donald Trump, in via definitiva.
Ciò che si comprende da tutto questo è quanto grandi siano le responsabilità dei social nella gestione dei contenuti, i cui effetti si riversano inevitabilmente sulla realtà e non rimangono confinati allo spazio digitale, e quanto difficile sia arginare il fenomeno delle fake news e della disinformazione, se all’utenza “lesiva” ‘è sufficiente cambiare piattaforma, affidarsi a policies meno severe, per perseguire i propri intenti.
Apple, Google e il ban a Parler
In seguito a questi fatti, Google ha sospeso Parler dal Play Store e Apple sta valutando analoga mossa, in disaccordo con le politiche troppo lasse di moderazione. Entrambi segnalano post dove si invoca espressamente la lotta armata e l’omicidio di avversari politici.
Di contro, alcuni (come si legge nel New York Times) notano come la mossa dei due big rafforza sia l’idea del grande potere nelle loro mani, che arriva a influenzare e minacciare attori anche esterni al loro diretto perimetro; sia conferma l’assunto che ci sia una censura ai danni di certe posizioni ideologiche, in un complotto ordito da democratici insieme con i colossi tecnologici..
Insomma, queste azioni, pur cercando di limitare i danni della disinformazione e dell’hate speech sulle piattaforme, hanno conseguenze negative non trascurabili.
Le risposte di Twitter e Facebook al problema disinformazione
Negli ultimi anni, le principali piattaforme social hanno cercato di modificare progressivamente le proprie policies al fine di combattere la diffusione dell’odio e della disinformazione online.
Tuttavia, nonostante le azioni sinora intraprese, la situazione è ancora drammaticamente preoccupante, come è stato dimostrato nel corso del 2020, che ha visto diffondersi innumerevoli contenuti falsi e/o manipolatori a tema Covid-19, oltre che politici; e come testimoniano diverse ricerche secondo cui Qanon e i contenuti cospirazionisti continuano a crescere e/o si spostano su altri social (e ora anche Parler).
Nel passato, ad esempio, come anticipato, Twitter ha cercato di informare la propria utenza della potenziale pericolosità di determinati contenuti apponendovi un’etichetta che oscurava il contenuto del messaggio. Una misura, tuttavia, rivelatasi del tutto inefficace, in quanto era sufficiente premere un tasto per poter vedere il contenuto in chiaro.
Anche le piattaforme di Zuckerberg, Facebook e Instagram, nel corso degli ultimi mesi, hanno provveduto a rimuovere milioni di contenuti, aventi ad oggetto soprattutto teorie cospirazioniste sulla sicurezza e l’efficacia dei vaccini. Tuttavia, gli account con centinaia di migliaia di follower continuano a pubblicare nuovi post, vanificando gli sforzi della piattaforma. Spesso, peraltro, i profili rimossi su Facebook continuano a pubblicare su Instagram, sfruttando, ad esempio, delle differenze nelle policies.
Trovare un nuovo equilibrio tra diritti e tutela dell’informazione
Sinora, la difficoltà maggiore sembrerebbe essere quella di bilanciare il diritto alla libertà di parola e la rimozione dei contenuti, la cui mole è talmente elevata da rendere particolarmente complesso identificare e rimuovere efficacemente i contenuti ritenuti potenzialmente lesivi.
Il problema risiederebbe in parte nella stessa struttura delle policies, dimostratesi inadeguate ad affrontare con tempestività ed efficacia il problema della disinformazione. Anche le politiche di factchecking si sono rivelate, nella sostanza, del tutto inefficaci, in quanto attuate solo ex post, a seguito di una smentita o di un evento segnante, come quello di cui si discute.
Peraltro, le poche azioni di contenimento intraprese ora giungono probabilmente troppo tardi, e in modo troppo radicale se visto alla luce di pregresse dichiarazioni nelle quali si elevava il diritto alla libertà di parola al di sopra della necessità di porre un freno a determinati movimenti di disinformazione. Inoltre, il sentimento di sfiducia verso le fonti ufficiali di informazione è ormai talmente ampio e radicato in una specifica fetta di utenza da far risultare le odierne contromisure un mero placebo.
Probabilmente, occorre una profonda revisione del processo di moderazione dei contenuti, che non sia basato solo sulla singola affermazione falsa e sull’attesa che un determinato contenuto venga smentito dai giornalisti o dai soggetti competenti (processo, questo, che è stato definito da alcuni ricercatori “un infruttuoso “schiaccia la talpa””) ma che attui delle politiche proattive e previsionali, fondate sull’analisi degli account e sulla loro “storia”, sui contenuti sino a quel momento pubblicati, al fine di prevedere con anticipo il verificarsi di fenomeni di disinformazione.
Bisogna anche stare attenti a non esagerare il ruolo dei social – che secondo uno studio di ieri dell’Harvard Berkman Klein Center – nemmeno sono la principale fonte di disinformazione; e certo non si può ridurre a questo ruolo negativo il valore dei social.
La via che l’Europa sta imboccando, si veda ad esempio il Digital services act, ma anche gli Stati Uniti con diverse indagini in corso, sembra quella di una maggiore responsabilizzazione dei social network. Ma anche di un maggiore controllo da parte dei cittadini su queste piattaforme, a partire dai loro dati e attività sulle stesse.
Il solo aumento della responsabilizzazione rischia di peggiorare la tutela dei diritti di espressione e minare il pluralismo, ossia i vantaggi che i social e in generale il digitale hanno portato alle nostre società (cfr Giovanni Boccia Artieri, 2017). E comporta anche il paradossale effetto di aumentare il potere-ruolo da gatekeeper, per quelle piattaforme. Ruolo per molti lesivo nei confronti degli equilibri democratici.
Un maggiore coinvolgimento pubblico
Il nuovo equilibrio da trovare è complesso. Ma potrebbe passare da un maggiore controllo pubblico (oversight) sui punti di maggiore rilevanza socio-politica rivestita da questi gate-keeper dell’informazione/comunicazione digitale globale. Bisogna però stare attenti che questa eventuale rivoluzione del modo in cui funziona il mercato digitale non ne distrugga il valore innovativo, in termini economici e sociali. Anche questo esito sarebbe una sconfitta per la democrazia.
Una cosa è certa: i rischi sono grandi, in entrambi i sensi. E una soluzione non c’è ancora. Quelle semplicistiche, che si limitano a potenziare i blocchi, hanno scarsa efficacia e controindicazioni, come si vede.
Ma è positivo che una soluzione venga cercata, con crescente coinvolgimento anche delle istituzioni, dal 2016 a oggi (da quando i social hanno rivelato un ruolo negativo sulla disinformazione, con ricadute politiche).
La via per uscire dal declino probabilmente passa da un maggiore coinvolgimento e collaborazioni delle parti, pubbliche e private, istituzioni e gruppi sociali, perché gli spazi digitali pubblici – ancorché di proprietà privati – siano vissuti e da tutti considerati luoghi al servizio di interessi pubblici collettivi; limitando il potere di gatekeeper e interessi di parte, anche con nuove politiche antitrust. Che è proprio la via esplorata ora in Europa e Stati Uniti.
[1] https://podcasts.google.com/feed/aHR0cHM6Ly9mZWVkcy5zaW1wbGVjYXN0LmNvbS9sMmk5WW5UZA/episode/Y2NiNmYyMjQtZWI5Ny00MTIxLTgxZDQtY2NkMzMxYzc5OWVk?ep=14