L’oscuramento della fan page del movimento delle Sardine è l’ultima prova in ordine di tempo che Facebook, attore geopolitico di importanza strategica, in grado di condizionare i risultati delle elezioni degli stati del mondo, è padrone assoluto di ciò che può o non deve essere detto sulla piazza virtuale. Gli utenti, totalmente privi di diritti, sono semplici strumenti di questo potere immenso, e fuori da ogni controllo.
Ricostruiamo i fatti per provare a capire perché se al momento Facebook non brilla per trasparenza, per il futuro non c’è da aspettarsi grandi cambiamenti.
L’oscuramento delle Sardine
La Facebook fanpage del movimento delle Sardine è stata oscurata il 24 novembre intorno alle 21,00 per poi essere misteriosamente riattivata intorno all’una del mattino del 25, con l’unica sintetica spiegazione “La pagina non presenta violazioni”.
Subito dopo l’oscuramento della pagina ufficiale, il movimento ha aperto un’altra fanpage, anche questa rimossa e poi riattivata, questa volta senza spiegazioni.
Non si sa nulla riguardo al motivo dell’oscuramento, solo teorie. La più accreditata ritiene che la decisione sia stata determinata da un mail bombing organizzato da un gruppo di simpatizzanti di Salvini. Perché ciò dovrebbe aver determinato la sospensione della pagina (e non una semplice verifica dei contenuti) non è noto.
Ciò che preoccupa è che, né prima della sospensione, né dopo la riattivazione, Facebook non ha fornito alcuna spiegazione, al di fuori del laconico “La pagina non presenta violazioni”.
Gli Standard della Community Facebook
Ufficialmente i parametri che determinano le scelte di Facebook riguardo alla rimozione di certi contenuti, sono gli Standard della Community, che descrivono che cosa è e non è consentito pubblicare su Facebook.
“Le nostre normative (n.d.r.: gli Standard) si basano sui feedback ricevuti dalla nostra community e sui consigli di esperti in settori quali tecnologia, sicurezza pubblica e diritti umani”, ma né questi feedback, né l’identità e i consigli degli esperti sono condivisi con gli utenti.
Nella sezione introduttiva agli Standard della Community, il social spiega che la sua intenzione è tutelare la libertà di espressione, con il solo limite dato dalla necessità di proteggere autenticità, sicurezza, dignità e privacy. Gli standard, raggruppati in sei sezioni principali (Violenza e comportamenti criminali; Sicurezza; Contenuti deplorevoli, Integrità ed autenticità, Rispetto della proprietà intellettuale, Richieste relative ai contenuti), a loro volta suddivise in 23 sottosezioni, riportano descrizioni assai generiche, sfuggenti e facilmente manipolabili.
Il documento precisa che Facebook, a fronte di contenuti rilevanti e di pubblico interesse, ha il potere di consentirli anche se contrari agli Standard della Community, previo un bilanciamento fra danno e pubblico interesse, alla luce degli standard internazionali dei diritti umani (“se si tratta di contenuti rilevanti e di pubblico interesse. Procediamo in questo modo solo dopo aver soppesato l’interesse pubblico rispetto ai potenziali danni e ci basiamo sugli standard internazionali in materia di diritti umani per effettuare queste valutazioni”). Quindi, regole sì, ma Facebook può discostarsene, basta una buona motivazione.
Quali “standard internazionali dei diritti umani”?
Desta perplessità il riferimento agli “standard internazionali dei diritti umani” anche perché non esistono Standard internazionali oggettivi e condivisi. Non a caso se si cerca su Google “Standard internazionali in materia di diritto umani”, si viene indirizzati al sito di Scientology, un altro soggetto che non ha fatto della trasparenza la sua guida. La nebulosa di Facebook, dunque, avvolge anche i diritti umani, negando in partenza un terreno oggettivo di discussione. Analoghe considerazioni per i concetti di “rilevanza e pubblico interesse” che sono rimessi all’assoluta discrezionalità del social, secondo criteri non verificabili e tantomeno contestabili.
Come nascono gli Standard della Community
Gli Standard della Community come nascono? Il social spiega che si svolgono due incontri al mese. Per prepararsi, si studia un po’ di materiale, si consultano gli esperti e redigono gli Standard, dopodiché si applicano. Manca solo la descrizione della pausa caffè, oltre a qualunque riferimento ai criteri utilizzati per decidere come modificare/implementare gli standard. Nessun documento, nessuna spiegazione.
Spostando l’attenzione sulle “Linee guida interne relative all’applicazione degli standard” (le misure di enforcement), troviamo una confessione di Zuckeberg, una delle tante, con la quale ci dice che il sistema di applicazione degli Standard è tutto tranne che perfetto, cioè sbaglia:“I nostri standard sono buoni proporzionalmente alla forza e accuratezza della loro applicazione– ma quest’ultima non è perfetta” (…)”.
Un sistema imperfetto
In sintesi, il meccanismo descritto da Facebook prevede la presenza di un team (umano o artificiale che sia) che lavora a verificare quali contenuti fra quelli segnalati siano contrari agli Standard, e quindi da oscurare. Però Facebook ci avverte di un problema che chiama “sfida”, “quella di applicare in modo accurato i nostri standard ai contenuti che ci sono stati segnalati. In questo caso sbagliamo perché i nostri standard non sono sufficientemente chiari ai nostri revisori di contenuti. In questo caso, lavoreremo per colmare queste lacune. Il più delle volte, tuttavia, commettiamo errori perché i nostri processi coinvolgono le persone e le persone sono fallibili”
In sintesi, Facebook ammette che il sistema di applicazione degli Standard non è perfetto e che ciò incide negativamente sugli standard (“Le nostre politiche sono buone proporzionalmente alla forza e l’accuratezza della nostra capacità di applicarle – ma quest’ultima non è perfetta”), ma poi attribuisce la difettosità della fase applicativa al fatto che gli standard non sono sufficientemente chiari (“facciamo errori perché le nostre policy non sono sufficientemente chiare ai nostri revisori di contenuti”). Ma allora perché Facebook non chiarisce meglio gli Standard, o non istruisce meglio i suoi revisori di contenuti?
In questo sistema caratterizzato da tanta umana fallibilità, sarebbe stato ragionevole aspettarsi che il social mettesse a punto un meccanismo di correzione degli errori, dando una seconda chance agli utenti o quanto meno un diritto a ricevere spiegazioni. Ma niente di tutto ciò. Zero diritti, sia che Facebook abbia torto, sia che abbia ragione.
C’è speranza per il futuro?
Per il futuro Facebook promette di migliorare, concedendo all’utente la possibilità (qualcosa di meno di un diritto) di chiedere al social di rivedere le sue decisioni. In tal caso, se Facebook non riconoscerà l’errore, il contenuto rimarrà oscurato, senza che l’utente sia avvertito, e senza alcuna motivazione. Se, invece, riconoscerà l’errore, l’utente sarà avvisato ed il post ripristinato, ma sempre senza fornire alcuna motivazione. In entrambi i casi, è Facebook che decide cosa tenere online e cosa no, l’utente non ha alcun diritto, neppure di sapere se la sua richiesta è stata letta, tantomeno di avere delle spiegazioni.
Speriamo nel futuro? Dall’anno prossimo sarà operativo l’Oversight Board di Facebook, un Comitato di supervisione composto da soggetti nominati dal CEO di Facebook, e retribuiti da un trust, finanziato da Facebook. Non è chiaro, dunque come questo organo, che, in estrema sintesi, avrà la funzione di esaminare le decisioni di Facebook riguardo all’oscuramento dei contenuti, e di proporre miglioramenti e modifiche negli Standard della Community, possa essere considerato realmente indipendente. A ciò si aggiungono molte perplessità sui meccanismi operativi che lasciano molto spazio a Facebook per discostarsi dalle decisioni dell’Oversight Board e a quest’ultimo ampia discrezionalità riguardo alla scelta delle istanze degli utenti a cui dare risposta. Vi è anche il serio dubbio che la reale funzione dell’Organo non sia quella di migliorare il servizio di monitoraggio dei contenuti, bensì di rimuovere le responsabilità da Zuckeberg e da Facebook riguardo a censura e pregiudizi politici, oltre ad introdurre un argine alle contestazioni delle varie Authority antimonopolistiche.
Riservandomi di tornare sul tema per analizzarlo più nel dettaglio, mi limito ad osservare che il futuro, al di là delle roboanti apparenze. non promette grandi cambiamenti.
Da utenti privi di diritti, ci possiamo solo rammaricare (rectius: sbattere la testa contro il muro) se il nostro post o il nostro profilo vengono oscurati senza spiegazioni, da cittadini abbiamo il diritto di chiedere, invece, ai nostri regolatori nazionali ed internazionali che cosa stanno aspettando per decidersi ad assumere le misure di argine adeguate, a tutela della dignità e dei diritti dei singoli, e della democrazia.