Ci sono i team di legali incaricati di definire le regole di comportamento – le cosiddette “policy” – e di aggiornarle in base ai cambiamenti culturali e sociali della società e dei Paesi in cui la piattaforma opera.
Ci sono i team di sviluppo incaricati di progettare e realizzare software di moderazione automatica per i contenuti più semplici da gestire. Ci sono i team di PR e crisis management per gestire le conseguenze della diffusione dei contenuti problematici amplificati dagli algoritmi.
Ci sono i fact-checker, cui destinare le notizie e i contenuti sui quali è più difficile emettere un giudizio definitivo. Ci sono i gig worker, pagati a cottimo, la cui attività si limita a catalogare i contenuti segnalati dagli utenti per indirizzare questi ultimi verso le differenti code di revisione dei moderatori.
Ci sono, infine, i moderatori propriamente detti: quelli pagati meno ma che rappresentano la quota più rilevante delle decine di migliaia di professionisti coinvolti a vario titolo nell’attività di moderazione di contenuti. Policy maker, fact-checker, sviluppatori, gig worker, moderatori rappresentano oggi un costo non indifferente nei bilanci di una società tecnologica, e a poco a poco questa voce di budget inizia a diventare una stima sempre meno approssimata per difetto.
Fact-checking, chi controlla i controllori? Anomalie, dubbi e conflitti d’interesse
Oltre 500 milioni di dollari spesi ogni anno da Facebook
Il lavoro del moderatore di contenuti è forse una delle poche professioni destinate a non conoscere crisi da qui ai prossimi anni: il numero di moderatori di Facebook, quelli su cui sono disponibili il maggior numero di inchieste e testimonianze, è cresciuto in doppia cifra anno su anno e ancora oggi non è dato sapere quanti siano esattamente i moderatori realmente impiegati in forma continuativa dall’azienda, in ragione del fatto che la maggior parte di questi ultimi lavora presso agenzie esterne specializzate (o meno) nella fornitura di servizi di moderazione. Secondo un’inchiesta del New York Times, Facebook pagherebbe ogni anno oltre 500 milioni di dollari per mantenere la sua infrastruttura globale di moderatori di contenuti, risultando essere allo stesso tempo tra i maggiori clienti di agenzie come TaskUs (un terzo del fatturato di quest’ultima sarebbe originato direttamente da Facebook) e strettamente dipendente dal supporto di aziende di consulenza generaliste come Accenture (che, da sola, fornirebbe quasi un terzo del totale dei moderatori di contenuti attualmente attivi sul social media).
Fact-checking partnership di Facebook: come funziona, pro e contro
Chi fa affari, e chi ha deciso di ritirarsi per non correre rischi
In particolare, l’inchiesta del New York Times si concentra sulle violentissime tensioni interne che avrebbero attraversato la struttura di comando di Accenture nel corso degli ultimi anni: dapprima Pierre Nanterme, poi l’attuale CEO Julie Sweet avrebbero più volte provato a mettere in discussione il contratto di servizi di moderazione per Facebook, scontrandosi ogni volta con la prima linea dei manager preoccupati di perdere un cliente così prestigioso. A innescare il dibattito interno, rivelato per la prima volta dai giornalisti del Times, sarebbero state le crescenti preoccupazioni riguardanti le possibili conseguenze negative sulla reputazione di Accenture nei confronti dei media e il rischio di cause intentate dagli ex moderatori in seguito all’insorgere di gravi disturbi psichici causati dall’esposizione ai contenuti da revisionare su Facebook: in questo contesto, lo scorso anno Accenture ha inserito tra i fattori di rischio citati nel suo report annuale l’attività di moderazione di contenuti. Non è un caso, infatti, che non più tardi di due anni fa uno dei più importanti fornitori di Facebook di servizi di moderazione– Cognizant – abbia deciso di abbandonare questo mercato in seguito a un’inchiesta di The Verge, rinunciando a 240 milioni di dollari di fatturato.
Il margine di guadagno delle aziende
Perché ritirarsi, dopotutto? Secondo le stime di Everest Group l’industria globale della moderazione di contenuti dovrebbe raggiungere un valore pari a 8,8 miliardi di dollari il prossimo anno: se Facebook da sola oggi dà lavoro ad oltre 10 fornitori esterni di servizi di moderazione di contenuti, non è ancora dato sapere quanti e quali saranno i fornitori richiesti da TikTok, Twitch, Twitter, LinkedIn, Pinterest e altre piattaforme digitali quando i loro numeri si avvicineranno ai volumi di utenti e contenuti superati da Facebook solo pochi anni fa.
Il margine di guadagno che le aziende possono ottenere sul lavoro di un moderatore di contenuti è tuttora elevato (secondo l’inchiesta del Times, per ogni 18 dollari guadagnati ogni ora da un moderatore Accenture ne incasserebbe oltre 50), non sono previste leggi nazionali o comunitarie volte al sostegno economico, sanitario, psicologico dei moderatori, né questi ultimi hanno finora dimostrato sufficiente forza contrattuale volta a ottenere condizioni lavorative e salariali migliori: gli aumenti annuali sono stati finora contenuti nell’ordine di pochi dollari in più all’ora, e lo stipendio medio di un moderatore oscilla dai 28-30 mila dollari dei Paesi ricchi a qualche migliaio di dollari annui nei Paesi più poveri.
Così Facebook sta esternalizzando anche i danni
Per capire come mai un’azienda come Cognizant – e probabilmente molte altre prima e dopo di lei – possano arrivare al punto da rinunciare a un mercato potenziale così lucrativo, si possono rileggere le parole che Yael Eisenstat, per sei mesi Global Head of Elections Integrity Operations di Facebook, aveva condiviso con i media dopo aver studiato dall’interno il sistema di moderazione di contenuti messo in atto dall’azienda di Menlo Park: “Facebook sta esternalizzando la responsabilità dei danni che il suo prodotto genera”, separando fisicamente, emotivamente e strutturalmente i moderatori di contenuti dal resto dell’azienda, rinunciando in questo modo ad assumere su di sé “la responsabilità positiva e negativa dell’impatto generato dalla propria piattaforma”.
In altre parole, entrare a far parte del ristretto numero di fornitori di servizi di moderazione di contenuti di questa o quella azienda tecnologica implica oggi ereditarne anche tutte le problematiche strettamente intrecciate al suo prodotto: ricadute reputazionali, sanitarie, legali, politiche che né Facebook né le altre aziende hanno avuto la volontà, e la forza, di affrontare e risolvere internamente.
Un costo sostenibile (forse) per Facebook, molto meno per i suoi fornitori
In questo senso, la stima del “costo” della moderazione di contenuti non può essere mai del tutto definita se non si tengono conto tutte le possibili variabili che possono far crescere drammaticamente questa spesa nel corso del tempo: dal costo di selezione e ingaggio di una manodopera soggetta a elevatissimi tassi di turnover a quello derivante dalle cause legali portate avanti sia dai moderatori di contenuti (nel maggio 2020 Facebook è stata condannata a risarcire fino a 52 milioni di dollari un gruppo di ex-moderatori di contenuti negli USA) sia dagli utenti che sono stati vittime di un intervento erroneo di un moderatore (sempre Facebook è stata condannata da un tribunale italiano a risarcire più di 14.000 euro di danni un utente a cui erano state chiuse due pagine), per arrivare infine ai costi richiesti dagli altri professionisti che a vario titolo sono impiegati nella colossale “macchina” globale di moderazione di contenuti. Costi che le aziende tecnologiche, come dimostra l’inchiesta del New York Times, tendono sempre più spesso a ridistribuire verso l’esterno, lasciando che siano i fornitori a fronteggiare in prima linea i danni arrecati dall’attività di moderazione a utenti, società, giornalisti e moderatori stessi: una spesa probabilmente sostenibile da aziende come Facebook, ma che potrebbe mettere in pericolo il business aziende molto meno ricche e molto meno attrezzate a muoversi sull’incerto confine tra libertà di espressione collettiva e tutela del benessere individuale.