X ha due moderatori di contenuti in grado di comprendere la lingua italiana, così come Pinterest; Booking e Zalando ne hanno tre ciascuno, LinkedIn ne dichiara tredici, YouTube ne ha 91, Meta non più di 179, Google Play ne ha 184, TikTok supera i quattrocento; Amazon, Bing, Wikipedia non svelano i numeri: è uno scenario a forte tinte chiaroscurali quella che emerge dalla lettura dei report sulla trasparenza della moderazione di contenuti pubblicati per la prima volta nei giorni scorsi sui siti delle più importanti aziende digitali, secondo quanto richiesto dal Digital Services Act, e che per la prima volta in assoluto comunicano il numero esatto di moderatori suddivisi per lingua o Paese di competenza.
Il dettaglio dei moderatori di contenuti di TikTok, suddivisi per competenze linguistiche secondo il TikTok’s DSA Transparency Report 2023
Il DSA e i moderatori di contenuti “umani”
Non è una notizia, tuttavia, che il numero di persone incaricate di valutare le segnalazioni di contenuti potenzialmente illegali, disturbanti, pericolosi e vietati dalle leggi come dalle policy interne delle stesse piattaforme sia così ridotto, soprattutto per quanto riguarda il nostro Paese. Rimane tuttavia sorprendente constatare come, calcolatrice alla mano, a fronte degli oltre 5.000.000 di utenti attivi mensilmente dichiarati da LinkedIn in Italia sia disponibile un solo moderatore ogni 384.000 utenti, e a fronte dei 35.600.000 di utenti attivi dichiarati da Facebook vi sia un moderatore ogni 198.000 persone.
Il corrispondente digitale di una grande città come Milano avrebbe quindi, sui social di Meta, poco più di sette moderatori per un milione e mezzo di utenti: davvero pochi, tenendo conto del fatto che ogni persona può inviare un numero illimitato di segnalazioni anonime ed essere potenzialmente autore o destinatario di contenuti in violazione delle regole della piattaforma e delle leggi del Paese. Eppure, strano a dirsi, il Digital Services Act non prevede alcun numero minimo di moderatori in base al numero di utenti, né alcun obbligo per i moderatori di risiedere fisicamente nel Paese a cui sono assegnati. Un moderatore può revisionare contenuti prodotti da una pagina Facebook italiana lavorando dall’altra parte del mondo, senza possedere nulla più che una comprensione sommaria del nostro Paese, delle sue leggi, della sua lingua.
Solo il 37% dei moderatori di X ha più di 3 anni di esperienza nel ruolo, mentre il 46% ha meno di due anni di esperienza secondo il DSA Transparency Report di Twitter
Eppure, essi esistono: dopo anni e anni in cui i loro CEO hanno promesso la rapida sostituzione dei moderatori con strumenti di intelligenza artificiale, e che la maggior parte degli utenti ha convissuto con il dubbio se a moderare i contenuti fossero strumenti automatici o esseri umani in carne e ossa, il Digital Services Act ha il merito di aver fatto scrivere nero su bianco che le più avanzate aziende al mondo devono dipendere ancora oggi dal lavoro di operatori professionisti per controllare i contenuti pubblicati sulle loro piattaforme.
Seppur di dimensioni ridotte rispetto al totale degli utenti, il numero totale di moderatori di contenuti di Meta, Google, TikTok nell’Unione è oggi nell’ordine delle migliaia di persone, con importanti differenze tra un’azienda e l’altra, e costituisce un vero e proprio settore di sbocco professionale destinato a crescere anno dopo anno in ragione di una regolamentazione più stringente e pressioni regolatorie più forti a ogni nuovo conflitto o crisi politica locale o internazionale.
I dati che mancano
Manca, tuttavia, nei report pubblicati dalle “Very Large Platforms” tutta una serie di dati e spiegazioni che consentirebbero di farsi un’idea meno generica di come questo lavoro di moderazione avvenga realmente, nel dietro le quinte. Mancano, come abbiamo visto, dati sulla localizzazione esatta dei moderatori, sui luoghi in cui essi lavorano rispetto ai Paesi a cui sono destinati, sulla loro conoscenza o meno di una determinata comunità. Mancano differenziazioni tra moderatori madrelingua e persone che riescono solo in parte a comprendere una lingua difficile come l’italiano, con le sue innumerevoli sfumature di senso. Mancano dati sulle qualifiche accademiche, le competenze professionali, la diversità dei moderatori chiamati a decidere ora su un contenuto a sfondo razzista, ora su un contenuto di disinformazione, ora su annunci di prodotti illegali. Mancano dati sui tempi di risposta massimi delle segnalazioni (a che serve, ad esempio, la rimozione di un commento di odio dopo una settimana da quando quest’ultimo è stato pubblicato?), sulle segnalazioni non gestite affatto, su quelle inviate in massa da più utenti contemporaneamente. Mancano, infine, statistiche relative al numero medio di contenuti revisionati in un giorno dal singolo operatore, gli errori commessi da questi ultimi rispetto al totale dei contenuti revisionati, la visibilità raggiunta da contenuti segnalati prima della loro definitiva rimozione.
La differenza tra numero di segnalazioni ricevute da LinkedIn e il numero di quelle effettivamente accettate e revisionate dai moderatori e dai sistemi automatici del social supera il 90% del totale, senza che nel report vi sia una spiegazione di questo incredibile divario.
Anche a volersi far bastare i soli numeri dichiarati, le perplessità aumentano nella misura in cui si mettono a confronto i dati tra di loro. Un esempio, in tal senso, sono le tabelle 3(a) e 3(b) che compaiono a pagina 6 del Digital Services Act Transparency Report di Ottobre 2023 di LinkedIn: qui appare – con una certa evidenza – il divario tra le 96.002 segnalazioni inviate dagli utenti a LinkedIn per contenuti e offerte di lavoro potenzialmente a rischio di spam, odio, violenza, diffamazione, vendita illegale di beni, discriminazione, terrorismo, autolesionismo, disinformazione, e le “sole” 6,534 segnalazioni ritenute valide da LinkedIn e gestite di conseguenza.
Viene spontaneo chiedersi per quale motivo oltre il 90% delle segnalazioni degli utenti su LinkedIn sia stato rispedito al mittente senza ulteriori approfondimenti: sono gli utenti ad abusare in massa e in malafede dello strumento di segnalazione, o i moderatori ad avere troppa libertà di ignorare gli avvisi ricevuti senza subire alcuna conseguenza e penalizzazione? Sono gli utenti a non conoscere le regole della piattaforma, o i moderatori a sottovalutare casi di possibile violenza, razzismo, disinformazione, discriminazione? La risposta, purtroppo, non si trova nelle pagine di questi report.
Persone, oltre i numeri
Sarebbe un errore, tuttavia, concentrare tutte le critiche sulle sole aziende che hanno condiviso numeri così incompleti e ambigui, e ritenere che il Digital Services Act non abbia una qualche parte di responsabilità nel perpetuare le incertezze che da anni caratterizzano il settore della moderazione di contenuti.
Se il Regolamento ha avuto il merito – come ricordato all’inizio di questo articolo – di confermare una volta per tutte che il lavoro di moderazione online è principalmente un lavoro compiuto da persone per altre persone, tuttavia esso appare ancora ben distante dal rendere trasparenti dei processi di segnalazione, controllo, rimozione e penalizzazioni di contenuti e utenti online compiuti da moderatori senza volto, privi di numeri di identificazione personale e avvolti dall’anonimato che le aziende garantiscono loro in cambio della totale discrezione sui processi decisionali.
Conclusioni
Se c’è una cosa che i numeri di questi report non possono svelare è la quotidianità del lavoro dei moderatori, la complessità del loro incarico che si scontra inevitabilmente con una richiesta di “performance” crescenti che lascia poco tempo alla riflessione, allo studio del contesto e all’approfondimento caso per caso: chi sono, dove lavorano, come agiscono, che rapporto di possibile conflitto di interessi hanno con i contenuti e le persone che devono verificare, che competenze hanno per agire e in che misura il loro ristretto numero influenza la qualità delle loro scelte? Persone, oltre i numeri: e se fosse questo il titolo di uno dei prossimi report?