Negli ultimi anni abbiamo vissuto molteplici situazioni particolarmente sensibili, ciascuna delle quali ha attivato diversi campanelli di allarme che hanno spinto i gestori dei principali social network ad intensificare i controlli sui contenuti del web e ad inasprire le regole e i requisiti di qualità degli stessi.
Dal Bataclan alle elezioni Usa: l’uso del web a fini di propaganda
In un primo momento c’è stata la minaccia terroristica culminata con l’attentato del 13 novembre 2015 al teatro Bataclan a Parigi, dove si è forse raggiunto il culmine degli sforzi aventi come obiettivo quello di censurare tutte quelle pubblicazioni che potessero in qualche modo facilitare la radicalizzazione, cercando al contempo di non comprimere troppo la libertà religiosa.
Libertà di espressione e lotta alle fake news: alla ricerca di un difficile equilibrio
Anche successivamente, però, le occasioni per trattare il tema non sono mancate: le elezioni statunitensi del 2016, l’emergere sempre più rapido delle correnti estremiste in tutto il mondo, arrivando fino all’ultimo biennio, con la travagliata fase elettorale negli Stati Uniti e la pandemia da Covid-19.
Ciascuno di questi eventi ha un elemento comune: l’utilizzo massiccio del web a fini propagandistici, sia per rafforzare le proprie posizioni, sia per denigrare quelle opposte, ricorrendo talvolta a notizie false, teorie del complotto e altre attività pericolose.
In questo contesto, quindi, acquista una rilevanza fondamentale il filtraggio dei contenuti da parte dei gestori dei social network. Ebbene, proprio questa attività – che non si è in alcun modo allentata – ha fatto e fa ancora molto discutere. Non mancano infatti le critiche e le lamentele circa le politiche aziendali applicate dai giganti del web sulle pubblicazioni degli utenti. Molti, infatti, ritengono che questo tipo di iniziative produrrebbero un eccesso di censura che comprometterebbe la libertà d’espressione.
I primi a sostenerlo sono soprattutto i molti attivisti bannati dai principali social media, i quali gridano allo scandalo ritenendo di non rientrare tra quelle categorie di internauti meritevoli di tale trattamento.
Come funziona la censura su YouTube e sugli altri social media
Come visto, anche i social fanno i conti con l’eterno confronto tra la necessità di bloccare contenuti offensivi o violenti e quella di tutelare la libertà di parola degli utenti che vedono queste piattaforme come luoghi in cui poter esprimere qualsiasi opinione in qualunque forma.
In questo contesto, occorre partire da una premessa fondamentale che rende la questione della censura su Facebook o YouTube un argomento complesso: i social network sono gestiti da società private con un proprio regolamento e proprie condizioni. Questo significa che anche se lo strumento viene utilizzato dal cittadino di un paese di per sé libero, democratico e garantista, può comunque incorrere nella censura per le condotte tenute sul web. Le regole statali subentreranno tuttalpiù in caso di contenuti che integrano ipotesi di reato o facciano sorgere a vario titolo un diritto al risarcimento del danno causato a un determinato soggetto. Escluse queste ultime ipotesi, l’unico interlocutore in caso di cancellazione di post o account è il gestore del social stesso.
Fatta questa premessa, bisogna quantomeno provare a rispondere alla domanda su come avvengono, concretamente, i controlli dei contenuti e l’eventuale censura. Tuttavia, anche in questo caso, non tutti i social agiscono allo stesso modo, ma ci sono piccole differenze tra l’uno e l’altro e diversi ambiti di intervento.
Se esageri ti cancello: quali limiti alla libertà di parola sui social
Il sistema di controllo su Facebook
Il sistema studiato da Facebook è per molti poco trasparente. Si fonda essenzialmente sulla cooperazione tra filtri basati sull’intelligenza artificiale e controllori umani. Si tratta di un meccanismo che sfrutta gli algoritmi per svolgere una funzione di filtraggio delle pubblicazioni, dopodiché, individuato un contenuto che ritiene essere inappropriato, lo strumento invia l’alert ad un team di moderatori – spesso operatori di aziende terze – cui spetta la decisione finale sulla rimozione o meno.
Recentemente, il social capofila della scuderia di Mark Zuckerberg ha modificato il modo di segnalare i profili fake – anch’esso ritenuto debole e opaco – principalmente come forma di lotta alle notizie false o ai tentativi di coprire illeciti celando la propria vera indentità. I primi algoritmi usati da Facebook contro gli account falsi si basavano su pochi parametri e piuttosto scontati, come ad esempio la quantità di richieste di amicizia inviate, poiché di solito chi crea un profilo fake tende ad inviare decine di richieste in pochissimo tempo. Tuttavia, bastava evitare questo tipo di condotta per superare i controlli del filtro. Di conseguenza, il social ha recentemente introdotto un nuovo sistema chiamato “Facebook DEC”, il quale prende in considerazione anche gruppi, messaggi privati, attività specifiche svolte col profilo, e altri parametri che gli hanno permesso di intensificare i controlli ed eliminare milioni di account falsi in poco tempo.
Instagram, pur appartenendo alla Facebook Inc., adotta un sistema parzialmente diverso. In questo caso vengono usati due tipi di filtri: uno specifico per i commenti offensivi e uno per i commenti spam. La particolarità è che si basano su meccanismi di machine learning, che quindi dovrebbero apprendere da soli. Anche in questo caso, l’alert arriva a dei moderatori umani che prendono visione del contenuto segnalato e decidono sulla procedura da seguire. Per quanto riguarda l’autore dei post, Instagram prevede un sistema di allerta che avverte l’utente in caso di eliminazione o sospensione dell’account, comunicandogli le motivazioni. In questo modo l’utente può far presente ai gestori eventuali errori.
Anche Twitter utilizza il rilevamento automatico basato sull’intelligenza artificiale, consentendo l’eliminazione dei tweet o degli account prima ancora che vengano segnalati da eventuali utenti destinatari di insulti o urtati da determinati contenuti. Quando però l’alert proviene proprio da un soggetto e non dall’algoritmo, il social network si riserva di consultare il destinatario degli insulti o del post offensivo per comprendere il contesto in cui è stato generato un post o un commento prima di decidere.
YouTube
Infine, anche YouTube utilizza algoritmi che dovrebbero rilevare i contenuti inappropriati. Tuttavia, il social prevede anche dei meccanismi più improntati alle scelte del singolo utente che può decidere di evitare determinati contenuti, una soluzione pensata soprattutto per i minori che si aggiunge alla creazione di YouTube Kids, la versione dedicata interamente ai bambini. Recentemente la piattaforma ha sviluppato un nuovo progetto chiamato “YouTube Checks” e specificamente pensato per la tutela del copyright. Questo si basa su un meccanismo chiamato “Content ID“, che fa una scansione dei video e li confronta con un database di contenuti protetti da copyright. Se viene riscontrata una somiglianza eccessiva tra il video incriminato e uno dei contenuti presenti nel database, allora viene contrassegnato automaticamente, anche se non c’è stato un reclamo ufficiale da chi detiene i diritti.
Problematiche e accuse di abuso della censura
Ora, in quello che sembra un sistema quasi perfetto nella sua apparente precisione meccanica, non mancano le contestazioni. Infatti, occorre precisare che spesso gli allarmi lanciati dagli algoritmi si fondano sull’individuazione di parole chiave, suoni, parti di immagini. Questo significa che basta usare una parola o una foto diversi dal solito, che il sistema potrebbe ritenerli un indicatore di contenuti inappropriati. A maggior ragione dato che l’intervento umano non è più così determinante, anzi.
Su questo aspetto sorgono le principali polemiche sull’uso della censura sui social network, ed i primi accusatori sono gli attivisti che ne vengono colpiti.
Il caso di Oliver Ressler
L’ultimo caso eclatante è quello di Oliver Ressler, attivista austriaco da tempo impegnato sul fronte dell’anticapitalismo e dell’ambientalismo, il quale è stato vittima della chiusura del proprio account su YouTube. Il 2 agosto 2021 il social ha cancellato, senza alcun preavviso e comunicazione, l’intero canale nel quale esprimeva in pillole le sue idee controcorrente sul cambiamento climatico, sull’inquinamento e sull’abuso dell’ambiente. Nella mail ricevuta in seguito al ban, si legge che la rimozione è avvenuta perché – a detta di YouTube – un’analisi approfondita dei suoi contenuti aveva fatto emergere gravi violazioni delle linee guida della comunità, facendo particolare riferimento a spam, truffe e contenuti ingannevoli. Solo dopo le numerose adesioni degli utenti alla causa e le accuse di censura da parte dell’opinione pubblica, YouTube ha fatto marcia indietro.
La protesta della comunità LGBTQ+
Se questo è l’ultimo caso eclatante, non è di certo l’unico.
Qualche anno fa le restrizioni di YouTube avevano scatenato la protesta della comunità LGBTQ+.
Il social di condivisione di filmati aveva appena introdotto una nuova modalità riservata ai maggiorenni che si avvaleva della denuncia degli utenti per identificare i contenuti inappropriati. Questo aveva reso inaccessibili molti video musicali a tema LGBTQ+ e filmati di youtubers con testimonianze, clip di matrimoni gay e coming out. Tra i video censurati, anche quelli di artiste del peso di Lady Gaga, Mariah Carey, Miley Cyrus, e Katy Perry. Anche in questo caso, solo le proteste dell’opinione pubblica e l’influenza delle popstar ha portato YouTube a fare dietrofront con tanto di scuse. Poco tempo fa la censura ha colpito anche l’ex Presidente degli Stati Uniti Donald Trump, così come l’Ambasciata cinese negli Stati Uniti.
La censura della testata sovranista Byoblu
I casi non mancano nemmeno in Italia. Uno dei più recenti è quello della testata ByoBlu, di stampo sovranista e – negli ultimi mesi – anche tra i capofila dell’ambiente “no vax”. Il suo caso è arrivato anche al Parlamento europeo con un’interrogazione parlamentare che denunciava una censura arbitraria da parte di YouTube basata solo sulle opinioni politiche del social e non su precise disposizioni di legge. Anche se, come abbiamo visto, quest’ultimo aspetto non è il primo da considerare poiché il social agisce in primis secondo le proprie regole.
Ora, perché avvengono queste cancellazioni improvvise di account e contenuti? La risposta è già stata accennata: spesso è sufficiente che venga rilevata una parola in un certo senso sospetta, che il social procede alla rimozione. Ad esempio, nel caso delle censure operate sui membri della comunità LGBTQ+, era sufficiente utilizzare parole come “lesbica” per incorrere in conseguenze. La stessa cosa vale per le immagini: nel 2016 venne censurata da Facebook la foto storica – pubblicata dallo scrittore norvegese Tom Egeland – della bambina vietnamita in fuga, nuda e bruciata dal napalm dopo un bombardamento aereo nel 1972. Questo perché il social ha considerato solo l’immagine in sé e non la rilevanza storica della stessa. Altre volte, quando un attivista pubblica un video di denuncia – come ad esempio nel caso di Oliver Ressler – gli algoritmi possono rilevare suoni o parole che provocano la cancellazione, facendo nascere il sospetto che la vera motivazione sia di natura politica e non legata al rispetto delle regole della piattaforma.
Conclusioni: la soluzione è il Digital Services Act (DSA)?
Analizzato brevemente un tema complesso e che, di fatto, difficilmente può accontentare tutti, bisogna quantomeno accennare ad eventuali soluzioni. Ebbene, queste potrebbero presentarsi con il futuro Digital Services Act, il quale interverrebbe sul tema della censura sui social network.
In particolare, questo dovrebbe in primo luogo definire i contenuti illegali come qualsiasi informazione non conforme al diritto europeo o di uno stato membro sia di per sé, che analizzata in relazione ad una specifica attività. Quest’ultimo aspetto è essenziale per evitare alcune delle problematiche esposte poc’anzi.
Ciononostante, parlando della moderazione dei contenuti e delle conseguenti misure di cancellazione dei post e di disabilitazione, chiusura o sospensione degli account da parte del social, il Regolamento rinvierebbe ancora ad una valutazione basata sulla compatibilità con i termini e condizioni del social.
Uno degli elementi più importanti del DSA è però in alcuni espliciti riferimenti che potrebbero incidere sul sistema di valutazione dei contenuti. In primo luogo l’articolo 20 stabilisce che le sospensioni dei servizi devono avvenire previo preavviso e verso quegli account che forniscono contenuti “manifestamente illegali”. Lo stesso vale per i reclami da parte di chi ha la tendenza di proporre lamentele “manifestamente infondate”.
Infine, altro elemento importante è l’imposizione di un alto livello di chiarezza e trasparenza circa le condizioni d’uso delle piattaforme online, e la necessità di valutare caso per caso e in modo tempestivo la liceità dei contenuti, tenendo sempre conto di tutti i fatti e le circostanze rilevanti evidenti dalle informazioni disponibili. Questo, si augurano in molti, potrebbe portare ad una valutazione più attenta al contesto e agli argomenti trattati da un utente, piuttosto che ai singoli termini isolati.
La vera portata del Digital Services Act sarà evidente, come sempre, un po’ di tempo dopo la sua entrata in vigore. Sta di fatto che, al di là del carattere privato delle aziende che erogano servizi sul web, sarebbe importante iniziare già da ora a filtrare contenuti che hanno una vera pericolosità sociale. Certamente, non mancano post problematici, si pensi di recente alle fake news sul Covid-19 e sulla campagna vaccinale che potrebbero compromettere l’uscita dal periodo pandemico, oppure alle bufale su determinate categorie di soggetti che rischiano di creare turbamenti all’ordine pubblico e guerre tra classi sociali. Serve, in sostanza, uno sforzo maggiore per valutare il contesto, l’autore e l’argomento trattato in relazione al periodo storico della pubblicazione. Sia per mantenere alto uno scambio culturale e informativo pulito, utile e non dannoso, sia per evitare di far sorgere dubbi sul metro di giudizio dei gestori.