La prima volta che ho letto un articolo sui moderatori di contenuti dei social risale all’ormai lontano 2014: un’inchiesta di Adrian Chen, ancora oggi online, raccontava le lunghe giornate di lavoro di coloro che erano impegnati a “tenere pulito il feed di Facebook” da migliaia e migliaia di contenuti segnalati dagli utenti del social come potenzialmente a rischio di violazione delle regole di pubblicazione della piattaforma.
Un vero e proprio racconto dell’orrore quotidiano di persone costrette, per contratto, a rimanere di fronte a uno schermo per assistere allo scorrere indiscriminato e ad altissima velocità di ogni bestialità umana. Ma non fu questo aspetto del lavoro dei moderatori a monopolizzare la mia attenzione, né lo sarebbe stato nelle letture degli anni a venire che mi avrebbero portato alla scrittura de “Gli Obsoleti. Il lavoro impossibile dei moderatori di contenuti” (Agenzia X, 2021), primo libro italiano su questi “nuovi” lavoratori del digitale.
L’insostituibilità dei moderatori, gli “invisibili” della rete
Il filo rosso che legava l’inchiesta di Adrian Chen sui moderatori di contenuti nelle Filippine con le successive inchieste di The Verge sui moderatori di contenuti negli Stati Uniti, le testimonianze dei moderatori dei social a Berlino pubblicate sulla Süddeutsche Zeitung con le testimonianze raccolte in libri come “Behind the Screen” o “Custodians of the Internet” non era infatti solo il racconto dell’orrore in sé, quanto la constatazione che i moderatori di contenuti fossero a tutti gli effetti dei lavoratori “invisibili” della Rete. Ancora oggi è estremamente difficile stimare con esattezza il numero di moderatori attivi in Italia, per non dire del resto del mondo: dai 100.000 moderatori globali stimati da Wired nel 2014 ai 150.000 stimati dagli autori del documentario “The Moderators” nel 2017, l’unico elemento certo è che le più grandi aziende tecnologiche al mondo non possono fare a meno dei moderatori di contenuti, seppur sottopagati e sottodimensionati, per poter continuare a erogare i propri servizi digitali.
Ne abbiamo avuto una conferma esplicita nel corso dell’ultimo anno: a marzo 2020 Facebook ha dovuto improvvisamente richiamare al lavoro – seppur in smart working – migliaia e migliaia di moderatori di contenuti nel momento in cui l’intelligenza artificiale che avrebbe dovuto sostituirli aveva per errore cominciato a rimuovere migliaia di contenuti relativi al Coronavirus che non violavano alcuna policy di pubblicazione della piattaforma, solo poche ore dopo che la stessa azienda aveva dichiarato pubblicamente che si sarebbe servita di sistemi automatici di revisione dopo aver mandato a casa i moderatori per ragioni di sicurezza sanitaria. A novembre 2020, una lettera firmata da oltre 200 moderatori e indirizzata a Mark Zuckerberg ha confermato questo stato di fatto: “i vostri algoritmi non possono distinguere tra giornalismo e disinformazione, non sanno riconoscere la satira – si legge nel documento – solo noi possiamo”.
I moderatori in “pillole”
- Le piattaforme digitali non possono fare a meno del lavoro umano e non specializzato per revisionare i contenuti potenzialmente a rischio e resi virali dai propri algoritmi
- I moderatori di contenuti sono oltre 100 mila in tutto il mondo e sono sottoposti a forti pressioni psicologiche per revisionare il maggior numero possibile di contenuti a rischio
- In media un moderatore di contenuti deve prendere una decisione ogni 30 secondi, servendosi di espedienti volti ad accelerare il suo lavoro e potenziare la sua resistenza
- L’invisibilità dei moderatori di contenuti è una scelta strategica volta a minimizzare l’importanza del lavoro umano nel contesto delle nuove tecnologie di informazione di massa
- I moderatori di contenuti sono un esempio, forse il più estremo, dei nuovi lavori nati per servire gli algoritmi e vanno incontro a un processo di “obsolescenza” che non dipende tanto dalla loro incapacità di aggiornarsi, quanto da quella di dimenticare a comando come le macchine.
Vita da moderatore, in media una decisione ogni 30 secondi
Secondo le testimonianze e le inchieste oggi disponibili – oltre 250 sono quelle che ho potuto consultare in prima persona per la scrittura de “Gli obsoleti”, tra libri, articoli, videointerviste coperte da anonimato – in media un moderatore di contenuti per i social è chiamato a valutare tra i 500 e i 1.500 contenuti al giorno, uno ogni trenta secondi circa, passando quasi senza soluzione di continuità da messaggi d’odio a tentativi di suicidio, da video di attentati terroristici a video di pornografia e pedopornografia, dalla violenza sugli animali a quella sugli uomini, venendo chiamato in causa sempre più spesso anche per valutare contenuti relativi alla sfera privata di utenti che sono stati segnalati in forma anonima e talvolta senza neppur aver violato alcuna regola specifica. Quello che vediamo nei nostri flussi di notizie di Facebook, YouTube, Twitter o TikTok è solo una parte di quello che potremmo vedere se migliaia di contenuti non fossero stati rimossi dal nostro ultimo accesso ai social, se migliaia di moderatori non lavorassero 24/7 “al di là” dello schermo.
Lavoratori tech unitevi: contro tutte le storture del mercato
Quella su cui lavorano i moderatori è una vera e propria “catena di smontaggio” dei contenuti online, che ricorda i ritmi di lavoro incessanti della catena di montaggio di una fabbrica tradizionale: anziché generare nuova informazione, nuovi contenuti, i moderatori si servono di appositi strumenti per “smembrare” i contenuti esistenti al fine di valutarli con la massima velocità possibile prima di procedere alla loro eliminazione. I video sono scomposti in miniature per farsi in pochi secondi un’idea sommaria del loro significato, i contenuti audio sono trascritti automaticamente per una rapida lettura, le immagini vengono analizzate in bianco e nero e i volti delle persone nelle foto sono sfuocati per aumentare la capacità di resistenza del moderatore di fronte ai contenuti più traumatici. In questo contesto, non sorprende che ogni giorno vengano commessi qualcosa come 300 mila “errori” di moderazione solo su Facebook, né che i moderatori più esperti sviluppino forme di disturbo post-traumatico da stress dopo essere stati portati ben oltre il limite umano di tolleranza nei confronti di video e immagini disturbanti.
Successo degli algoritmi e presenza dei moderatori
È un errore, tuttavia, pensare che sia sufficiente aumentare lo stipendio o i servizi di supporto psicologico ai moderatori di contenuti per risolvere una volta per tutte i problemi posti dall’incapacità degli algoritmi dei social di moderare sé stessi, di non rendere virali quei contenuti che violano sia le regole di pubblicazione delle piattaforme sia le regole delle comunità in cui esse operano. L’obiettivo dei moderatori, infatti, non è solo quello di “proteggere” gli utenti dalla visione dei contenuti peggiori, quanto proteggere la reputazione delle piattaforme digitali agli occhi di investitori e inserzionisti: l’invisibilità dei moderatori è funzionale a ridurre al minimo la percezione che ciò che viene pubblicato su Facebook e YouTube, su TikTok e Twitter sia in realtà molto diverso rispetto a quello che è possibile vedere, molto meno accettabile rispetto a quello che la maggior parte degli utenti sono disposti ad accettare nel proprio “feed” di notizie.
In questo contesto, la crescita del numero di moderatori di contenuti è in aperta contraddizione con una narrativa della tecnologia che per anni ha esaltato la capacità degli algoritmi di sostituirsi alla maggior parte dei lavori e dei lavoratori “umani” nella selezione dell’informazione di massa. Quegli stessi algoritmi che per alcuni anni sono stati ritenuti in grado di sostituirsi del tutto al lavoro di selezione editoriale di giornalisti, divulgatori ed esperti, non possono oggi fare a meno di un numero crescente di moderatori per poter continuare a prosperare nell’illusione diffusa di una presunta automazione editoriale di massa. Senza gli algoritmi probabilmente non ci sarebbero così tanti moderatori, ma è altrettanto probabile che senza i moderatori gli algoritmi non avrebbero acquisito un ruolo così importante nell’economia digitale contemporanea, in quanto incapaci di comprendere appieno i contenuti che essi stessi veicolano.
Necessità di apprendere e obbligo di dimenticare: la sfida più grande di chi lavora nel digitale
Appare quindi paradossale il fatto che le più grandi aziende digitali al mondo debbano oggi dipendere da un esercito invisibile di “operai del clic”, per lo più privi di competenze digitali avanzate: se i lavoratori “obsoleti” sono quelli privi della capacità di aggiornarsi alle nuove competenze richieste dal mercato del lavoro, i moderatori sono da considerarsi “obsoleti” nella misura in cui essi svolgono un lavoro teoricamente alla portata di chiunque e da cui vengono quotidianamente estratti nuovi dati per l’addestramento delle intelligenze artificiali che dovrebbero un giorno lontano prenderne il posto. Un passaggio di consegne, tuttavia, che potrebbe non avvenire mai: gli “obsoleti” resteranno, per ammissione delle stesse aziende, la principale forza lavoro delle piattaforme più avanzate e innovative al mondo.
In realtà i moderatori sono, tra tutti i lavoratori specializzati e non del settore digitale, i meno “obsoleti” di tutti come ho dimostrato anche nel mio libro: essi sono chiamati a un lavoro di aggiornamento costante per apprendere le nuove regole di moderazione delle piattaforme, che cambiano di continuo e spesso senza alcuna coerenza interna. Un lavoro di aggiornamento costante che richiede, contemporaneamente, anche l’oblio delle regole memorizzate solo pochi giorni o poche settimane prima: ed è questa continua tensione tra necessità di apprendere e obbligo di dimenticare, per tenere il passo con le macchine digitali prive di passato e di futuro, che si ritrova oggi in quasi tutti i lavori che hanno a che fare con il digitale.
In questo senso i moderatori sono un esempio, forse il più estremo, degli “invisibili” lavoratori della nuova economia digitale, siano essi revisori di contenuti dei social o autori degli algoritmi che li mettono in moto: costretti ad aggiornarsi e dimenticare a comando, finché il mondo rincorrerà l’illusione della completa automazione.
Google, Amazon: ecco i danni delle “asimmetrie tecno-economiche”