A due anni dall’annuncio e dopo circa 18 mesi di preparativi, è diventato ufficialmente operativo l’Oversight Board di Facebook (FOB), un organismo “indipendente” (sebbene finanziato dal social network), costituito da 20 personalità con un mix variegato e diversificato di rilevanti competenze specialistiche: una sorta di “Corte suprema di Facebook” che deve “sentenziare” sulle decisioni di rimozione di contenuti che violano (apparentemente) le policy della piattaforma.
L’obiettivo prefissato è audace ed astrattamente condivisibile, ma come lavora? Quali metodi adotta? Quale normativa di riferimento? Farà giurisprudenza? E, soprattutto, potrebbe rivelarsi
Queste e tante altre domande sono più che legittime in questi giorni visto che abbiamo a che fare con un organismo che, sebbene sia spurio degli elementi tipici di un secondo grado di giudizio (come l’imparzialità e la terzietà) ha sovvertito ben 4 decisioni su 5 intraprese da FB, stabilendo il rispristino dei contenuti.
L’Oversight Board
Già dall’aprile 2018, Mark Zuckerberg accennava ad una “struttura, quasi come una Corte Suprema” per Facebook e la prima mossa concreta si è vista con la prima bozza di carta nel gennaio 2019. Nel gennaio 2020, Facebook ha svelato lo statuto del Comitato di sorveglianza che delinea le regole procedurali del Comitato. Nasce così la versione definitiva dell’Oversight Board annunciata dal social il 6 maggio con la lista dei membri che viene, poi, definitivamente svelata lo scorso 3 dicembre.
Ma cos’è realmente? È un comitato di secondo grado, una sorta di arbitrato delle scelte più incerte poste in essere da Facebook, ma – a differenza dei classici organi di mediazione – non è affatto nominato in accordo tra le parti (piattaforma e user), trattandosi di un unico organo istituito da Facebook in autoregolamentazione. Difatti, la struttura e lo statuto del Comitato è stata ideata interamente dal social con i membri prescelti provenienti da tutto il mondo (l’obiettivo, già prefissato, prevede l’inclusione di circa 40 membri. Ogni membro del Comitato resterà in carica per tre anni, fino ad un massimo di due mandati).
Nonostante l’evidenza, Facebook ha fieramente proclamato questo Comitato come “indipendente” e terzo alla propria piattaforma. Ciò potrebbe anche essere condivisibile laddove, a seguito dell’investitura, non ci fosse più alcun legame ma, purtroppo, un dato certo che ribalta questa (apparente) virtuosa mossa è che il FOB è stato – e continuerà ad essere – finanziato da Facebook, seppur indirettamente, tramite una fondazione istituita ad hoc per amministrare l’ente. Si tratta, precisamente, di un’entità legalmente separata da Facebook ma strutturata come un “trust a scopo non caritatevole” ai sensi della legge del Delaware. Facebook ha investito 130 milioni di dollari nel trust al fine di finanziare questo Comitato per i prossimi sei anni. Il trust è incaricato di sovrintendere al finanziamento del Comitato e di garantire che lo stesso adempia allo scopo dichiarato.
Il FOB e il diritto pubblico internazionale
La Carta dispone che il Comitato “determinerà se i contenuti erano coerenti con le politiche e i valori di Facebook” e “presterà particolare attenzione all’impatto della rimozione dei contenuti alla luce delle norme sui diritti umani che tutelano la libertà di espressione”(traduzione d.a.).
Tuttavia, al momento, non è chiaro come il FOB dovrebbe conciliare l’applicazione delle regole stabilite da Facebook con i sacrosanti principi di diritto pubblico internazionale, tra cui i diritti umani.
Va da sé che, se le regole di Facebook entrano in conflitto con il diritto internazionale, non si esclude che (così come nei 4 casi ribaltati) la decisione dell’Oversight Board possa essere l’occasione di chiamare in giudizio il social per chiedere la condanna giudiziale a seguito di lesione dei diritti umani.
Si pensi al caso sulla campagna contro il cancro al seno che ha visto la pubblicazione di una foto di capezzoli con l’ovvio fine di sensibilizzare i sintomi in quell’area, e che FB ha ritenuto oscena provvedendo immediatamente a rimuoverla. Qui siamo di fronte ad una plurima violazione dei diritti umani, perché non si tratta solo di libera espressione, ma di diritto alla salute, di diritto ad informare e ad essere informati, di diritto alla divulgazione scientifica, la cui censura meriterebbe una condanna, vera!
Chi può chiamare in causa il FOB
La presa in carico dei casi da parte dell’Oversight Board proviene da due flussi diversi.
Possono richiedere l’intervento del Comitato direttamente gli utenti coinvolti dalla decisione del social con il fine di veder ripristinato il contenuto rimosso. Ma solo alle seguenti condizioni:
- L’account per cui si richiede l’intervento deve essere ancora attivo;
- Aver esperito una prima richiesta di revisione direttamente a Facebook (da qui un legittimo dubbio: e se la piattaforma non risponde? In tal caso, non è irragionevole pensare ad una carenza di tutela, non potendo il Comitato ricevere l’istanza);
- Richiedere l’intervento entro un termine entro 15 giorni dalla risposta (eventuale) di Facebook;
- Richiedere l’intervento per un contenuto che non sia illegale in nessun paese ad esso connesso.
Il secondo flusso di potenziali casi demandato al Consiglio di sorveglianza proviene, invece, da Facebook stesso che può decidere di avvalersi del proprio occhio esterno in presenza di casi dubbi che gli algoritmi non riescono – né possono – sciogliere.
La validità e le conseguenze delle decisioni del FOB
Analizzando, poi, il profilo della validità, la domanda nasce spontanea: possiamo paragonare la natura applicativa delle decisioni emanate dall’Oversight Board al sistema di Common law? O piuttosto Facebook coglierà l’occasione per introdurre e/o migliorare le proprie policy adeguandosi ai principi dettati dal FOB nei casi di specie?
A tal proposito, una prima risposta la fornisce direttamente Facebook, ma ovviamente per rispondere davvero a questa domanda ci riserviamo di verificare la fondatezza di tale dichiarazione di intenti nel prossimo futuro.
Ebbene, in una risposta pubblica, dopo la pubblicazione delle prima decisioni, Facebook ha dichiarato: “Implementeremo queste decisioni vincolanti in conformità con lo statuto e abbiamo già ripristinato il contenuto in tre dei quattro casi come richiesto dal Comitato. Abbiamo ripristinato il post sulla campagna di sensibilizzazione sul cancro al seno l’anno scorso, poiché non violava le nostre politiche ed è stato rimosso per errore … Quando sarà possibile, implementeremo la decisione del Comitato su contenuti identici e realizzati con sentimenti e contesto simili… I nostri team stanno anche esaminando le decisioni del Comitato per determinare in quale altro luogo dovrebbero applicarsi a contenuti identici o simili”.
Prima facie, questo potrebbe essere un approccio positivo che influisce su numeri più grandi: quattro casi che, in futuro, ne condizioneranno migliaia rilevati come analoghi.
Questo tipo di applicazione avrebbe una reale incidenza sugli automatismi delle rimozioni, ovviando sia alla lentezza della procedura di “secondo grado”, che al difetto di indipendenza del Comitato preposto.
I casi trattati dall’Oversight Board
I casi sono stati discussi da gruppi di cinque membri, ciascuno dei quali includeva un rappresentante del luogo in cui era stato pubblicato il contenuto in questione. Talvolta i componenti richiedevano commenti pubblici integrandoli nella propria decisione.
Da quanto è emerso, nonostante sia un organo controllato e nominato da Facebook, ha avuto il “coraggio” di andar contro i suoi controllori ribaltando le decisioni di censura prese in un primo momento da Facebook, e questo sembrerebbe davvero un buon inizio (ammesso che l’esordio non faccia parte di una strategia di user trust).
Infatti, come anticipato, ben quattro volte su cinque il FOB ha ritenuto che la piattaforma abbia agito in maniera superficiale nella misura in cui ha rimosso contenuti che solo apparentemente violavano la policy di Facebook ma, in realtà, erano tollerabili forme di libera manifestazione del pensiero.
Di seguito una breve analisi delle decisioni emanate.
Caso campagna sulla sensibilizzazione del cancro al seno
Durante la campagna “Ottobre Rosa”, al fine di illustrare gli specifici sintomi sul cancro al seno – e quindi sensibilizzare la prevenzione – venivano pubblicate foto raffiguranti i capezzoli femminili. Il post è stato inizialmente rimosso in maniera automatica da Facebook e poi ripristinato dopo che una revisione interna, in quanto in linea con le linee guida della community. Facebook ha chiesto che il caso venisse archiviato, dichiarandolo “discutibile” e quindi oggetto di un errore accidentale degli algoritmi di intelligenza artificiale. Tuttavia, il FOB ha comunque deciso di cogliere l’occasione e creare un precedente, sostenendo che “la rimozione errata di questo post indica l’assenza di un’adeguata supervisione umana che solleva preoccupazioni sul rispetto dei diritti umani”, inclusa la libertà di espressione, soprattutto per le donne.
L’aspetto che in questa vicenda preme evidenziare è che la FOB ha sollevato una lacuna importante: va benissimo automatizzare la rimozione delle violazioni platealmente lesive dei diritti umani e contrarie ai principi di diritto internazionale, ma non fino al punto di lasciare del tutto scoperto o, comunque, scoperto per troppo tempo il fondamentale diritto al contraddittorio con la piattaforma. Occorre che la revisione umana ci sia e sia tempestiva di modo da discernere i casi davvero vietati dalle policy dai casi eccezionali come quello trattato. E quantomeno, come giustamente rileva il Comitato, occorre che FB avvisi come, quanto e quando utilizza gli algoritmi di AI.
Caso disinformazione covid-19
L’utente coinvolto dalla censura di FB criticava in un post un’agenzia francese di regolamentazione dei prodotti sanitari per aver rifiutato l’autorizzazione all’uso di idrossiclorochina contro Covid-19, un farmaco ritenuto da alcuni (incluso Trump) curativo del Covid-19, dato però non dimostrato scientificamente. Il Comitato ha stabilito che, sebbene il post fornisse false affermazioni sulla cura del Virus, dovrebbe essere ripristinato perché non poneva un danno imminente, quale elemento cruciale delle politiche di Facebook sulla disinformazione. E ha invece stabilito che, poiché questi farmaci richiedono una prescrizione in Francia, la disinformazione potrebbe causare solo danni di poca entità e che quindi il post merita di essere ripristinato.
In questa occasione il FOB ha suggerito a Facebook l’opportunità di correggere la disinformazione piuttosto che di rimuoverla.
Da qui anche il rilevato problema della continua modifica da parte di FB delle proprie policy, soprattutto nel corso della pandemia, attuata su più sezioni della piattaforma e che genera costante confusione negli utenti (“Un mosaico di politiche che si trovano in diverse parti del sito web di Facebook rendono difficile per gli utenti capire quale contenuto è proibito“). Il FOB rileva altresì che neanche chi è preposto alla moderazione dei contenuti riesce ad avere un quadro regolamentare chiaro, correndo anche il rischio di rimuovere erroneamente dei contenuti leciti. Pertanto, il Comitato raccomanda l’adozione di una relazione sulla trasparenza al fine di rendere più limpide le modalità di applicazione degli standard.
Caso citazione di Joseph Goebbels
Si tratta di una citazione attribuita erroneamente al propagandista nazista Joseph Goebbels, secondo cui gli argomenti che fanno appello al pathos sono più importanti della verità. L’utente dell’account ha affermato che il post era un mero commento relativo a Donald Trump.
Esaminato meglio il post, il FOB ha convenuto sull’assenza di qualsivoglia sostegno a Goebbels ed anzi, la censura posta in essere dalla piattaforma ha integrato una chiara violazione della libertà di espressione.
Sappiamo bene che la politica sulle organizzazioni pericolose è una delle più oscure di Facebook e a tal proposito, con l’occasione, il FOB raccomanda al social di chiarire meglio i termini come “lode”, “sostegno” e “rappresentanza” quando si parla di politica.
Caso di incitamento all’odio del Myanmar
Si trattava di foto virali postate da un utente del Myanmar e raffiguranti dei bambini annegati, il cui commento – scritto in burmese – sembrava intendere che i musulmani sono psicologicamente danneggiati. Il post, in realtà, metteva a contrasto il silenzio attorno al trattamento dei musulmani in Myanmar con le uccisioni in Francia per i cartoni raffiguranti Maometto.
Il FOB ha ritenuto che mentre la prima parte del post, presa singolarmente, poteva sembrare una generalizzazione offensiva sui musulmani, in realtà si trattava di un “commento sull’apparente incoerenza tra le reazioni dei musulmani agli eventi in Francia e in Cina”. Pertanto, a seguito del parere degli esperti sulle sfumature linguistiche dell’incitamento all’odio antimusulmano, ha ordinato il ripristino del contenuto.
Caso foto di chiese a Baku, in Azerbaigian (l’unico in cui viene confermata la scelta di rimozione di FB)
Si trattava di una foto raffigurante delle chiese a Baku, in Azerbaigian, accompagnata da una didascalia in russo nella quale si affermava che, contrariamente agli azeri, gli armeni avevano legami storici con Baku. Il post usava il termine taziks per riferirsi agli azeri, che è considerato “un insulto disumano contro l’origine nazionale”.
Il FOB, considerando la violenza tra i due paesi e la lingua del post, ha confermato la rimozione del contenuto attuata da Facebook, concordando col social sul fatto che le intenzioni sottese alla pubblicazione erano senza dubbio dispregiative e dannose.
Molte delle raccomandazioni del FOB, quindi, suggeriscono alla piattaforma politiche di maggiore trasparenza, oltre che l’opportunità di fornire più supporto all’utente per migliorare la comprensione e il rispetto delle regole stabilite dalla piattaforma.
Sono tutte raccomandazioni generali e sistemiche e probabilmente il FOB richiederà periodicamente a FB degli aggiornamenti sullo stato delle implementazioni raccomandate (più coerenza tra le varie sezioni della piattaforma, maggiori info all’utente sull’utilizzo dell’AI, etc.).
Sembrerebbe che Facebook abbia accolto di buon grado queste raccomandazioni anticipando la preparazione di “importanti modifiche operative e di prodotto“. Staremo a vedere.
Che succede ora?
Dopo l’emanazione delle decisioni del Comitato, Facebook ha sette giorni di tempo per attivarsi e ripristinare i contenuti impropriamente rimossi. In tre casi di quelli già visti, lo ha già fatto. Le decisioni non sono retroattive e Facebook non si è impegnata a ripristinare altri contenuti analoghi.
Al netto di tutte le dichiarazioni di intenti rilasciate in questi giorni da FB – e sebbene il Consiglio affermi che le sue decisioni siano vincolanti – non esiste nessun obbligo per il social di assorbire questo tipo di raccomandazioni. Del resto, sarebbe assurdo che una controllata possa sanzionare la controllante.
Ad oggi, se dovessimo basarci soltanto sulle decisioni del Comitato, non sarebbe azzardato sostenere che FB rimuove i contenuti senza approfondire davvero. Va da sé che gli iscritti al social siano tutti potenzialmente soggetti alla lesione della libertà di pensiero con buona pace dei fondamentali principi costituzionali e internazionali.
Peraltro, la riattivazione di un numero esiguo di contenuti, in un tempo così dilatato, fa venire meno l’interesse che sottende qualsiasi libera manifestazione del pensiero (come, ad esempio, la rimozione di post durante le elezioni politiche, che sono parentesi più o meno brevi e, in generale, nel dibattito pubblico in cui è necessario esprimere hic et nunc il proprio punto di vista).
Dunque, se da una parte è lodevole lo sforzo di FB di mettersi in discussione demandando l’ultima parola ad un altro organo (anche se scelto e controllato dalla piattaforma stessa), dall’altra parte è innegabile che – senza volerlo – si dimostrerà un’arma a doppio taglio. Emergerà ancor più lampante l’ingiustizia di una decisione improvvisa, senza spiegazioni e con scarsissime possibilità di contraddittorio e, seppure potenzialmente suscettibile di ripristino, non riparerà il danno derivante dalla censura (ripristino sottoposto al vaglio del Comitato o valutato da Facebook solo se deciderà di applicare su base analogica le regole dettate dal Comitato).
Sta di fatto che un ruolo questo FOB potrebbe averlo, stimolando il dialogo e spronando Facebook a rispondere pubblicamente mettendo al corrente gli utenti sulla gamma di possibilità, vincoli e incentivi nella moderazione dei contenuti.