rapporti trasparenza

Moderazione contenuti social: ecco cosa rivelano i primi numeri post Digital Services Act



Indirizzo copiato

I rapporti sulla trasparenza della moderazione dei contenuti, pubblicati in ottemperanza al Digital Services Act, rivelano dati contrastanti. Nonostante le promesse di sostituzione dei moderatori con strumenti di intelligenza artificiale, le grandi piattaforme digitali dipendono ancora significativamente dal lavoro umano. Tuttavia, mancano dati chiave che potrebbero fornire un quadro più dettagliato del processo di moderazione

Pubblicato il 14 nov 2023

Jacopo Franchi

Social media manager, saggista, autore del sito "Umanesimo Digitale"



moderazione dei contenuti social

X ha due moderatori di contenuti in grado di comprendere la lingua italiana, così come Pinterest; Booking e Zalando ne hanno tre ciascuno, LinkedIn ne dichiara tredici, YouTube ne ha 91, Meta non più di 179, Google Play ne ha 184, TikTok supera i quattrocento; Amazon, Bing, Wikipedia non svelano i numeri: è uno scenario a forte tinte chiaroscurali quella che emerge dalla lettura dei report sulla trasparenza della moderazione di contenuti pubblicati per la prima volta nei giorni scorsi sui siti delle più importanti aziende digitali, secondo quanto richiesto dal Digital Services Act, e che per la prima volta in assoluto comunicano il numero esatto di moderatori suddivisi per lingua o Paese di competenza.

Immagine che contiene testo, schermata, Parallelo, numeroDescrizione generata automaticamente

Il dettaglio dei moderatori di contenuti di TikTok, suddivisi per competenze linguistiche secondo il TikTok’s DSA Transparency Report 2023

Il DSA e i moderatori di contenuti “umani”

Non è una notizia, tuttavia, che il numero di persone incaricate di valutare le segnalazioni di contenuti potenzialmente illegali, disturbanti, pericolosi e vietati dalle leggi come dalle policy interne delle stesse piattaforme sia così ridotto, soprattutto per quanto riguarda il nostro Paese. Rimane tuttavia sorprendente constatare come, calcolatrice alla mano, a fronte degli oltre 5.000.000 di utenti attivi mensilmente dichiarati da LinkedIn in Italia sia disponibile un solo moderatore ogni 384.000 utenti, e a fronte dei 35.600.000 di utenti attivi dichiarati da Facebook vi sia un moderatore ogni 198.000 persone.

Il corrispondente digitale di una grande città come Milano avrebbe quindi, sui social di Meta, poco più di sette moderatori per un milione e mezzo di utenti: davvero pochi, tenendo conto del fatto che ogni persona può inviare un numero illimitato di segnalazioni anonime ed essere potenzialmente autore o destinatario di contenuti in violazione delle regole della piattaforma e delle leggi del Paese. Eppure, strano a dirsi, il Digital Services Act non prevede alcun numero minimo di moderatori in base al numero di utenti, né alcun obbligo per i moderatori di risiedere fisicamente nel Paese a cui sono assegnati. Un moderatore può revisionare contenuti prodotti da una pagina Facebook italiana lavorando dall’altra parte del mondo, senza possedere nulla più che una comprensione sommaria del nostro Paese, delle sue leggi, della sua lingua.

Immagine che contiene testo, schermata, numero, CarattereDescrizione generata automaticamente

Solo il 37% dei moderatori di X ha più di 3 anni di esperienza nel ruolo, mentre il 46% ha meno di due anni di esperienza secondo il DSA Transparency Report di Twitter

Eppure, essi esistono: dopo anni e anni in cui i loro CEO hanno promesso la rapida sostituzione dei moderatori con strumenti di intelligenza artificiale, e che la maggior parte degli utenti ha convissuto con il dubbio se a moderare i contenuti fossero strumenti automatici o esseri umani in carne e ossa, il Digital Services Act ha il merito di aver fatto scrivere nero su bianco che le più avanzate aziende al mondo devono dipendere ancora oggi dal lavoro di operatori professionisti per controllare i contenuti pubblicati sulle loro piattaforme.

Seppur di dimensioni ridotte rispetto al totale degli utenti, il numero totale di moderatori di contenuti di Meta, Google, TikTok nell’Unione è oggi nell’ordine delle migliaia di persone, con importanti differenze tra un’azienda e l’altra, e costituisce un vero e proprio settore di sbocco professionale destinato a crescere anno dopo anno in ragione di una regolamentazione più stringente e pressioni regolatorie più forti a ogni nuovo conflitto o crisi politica locale o internazionale.

I dati che mancano

Manca, tuttavia, nei report pubblicati dalle “Very Large Platforms” tutta una serie di dati e spiegazioni che consentirebbero di farsi un’idea meno generica di come questo lavoro di moderazione avvenga realmente, nel dietro le quinte. Mancano, come abbiamo visto, dati sulla localizzazione esatta dei moderatori, sui luoghi in cui essi lavorano rispetto ai Paesi a cui sono destinati, sulla loro conoscenza o meno di una determinata comunità. Mancano differenziazioni tra moderatori madrelingua e persone che riescono solo in parte a comprendere una lingua difficile come l’italiano, con le sue innumerevoli sfumature di senso. Mancano dati sulle qualifiche accademiche, le competenze professionali, la diversità dei moderatori chiamati a decidere ora su un contenuto a sfondo razzista, ora su un contenuto di disinformazione, ora su annunci di prodotti illegali. Mancano dati sui tempi di risposta massimi delle segnalazioni (a che serve, ad esempio, la rimozione di un commento di odio dopo una settimana da quando quest’ultimo è stato pubblicato?), sulle segnalazioni non gestite affatto, su quelle inviate in massa da più utenti contemporaneamente. Mancano, infine, statistiche relative al numero medio di contenuti revisionati in un giorno dal singolo operatore, gli errori commessi da questi ultimi rispetto al totale dei contenuti revisionati, la visibilità raggiunta da contenuti segnalati prima della loro definitiva rimozione.

Immagine che contiene testo, numero, Parallelo, CarattereDescrizione generata automaticamente

La differenza tra numero di segnalazioni ricevute da LinkedIn e il numero di quelle effettivamente accettate e revisionate dai moderatori e dai sistemi automatici del social supera il 90% del totale, senza che nel report vi sia una spiegazione di questo incredibile divario.

Anche a volersi far bastare i soli numeri dichiarati, le perplessità aumentano nella misura in cui si mettono a confronto i dati tra di loro. Un esempio, in tal senso, sono le tabelle 3(a) e 3(b) che compaiono a pagina 6 del Digital Services Act Transparency Report di Ottobre 2023 di LinkedIn: qui appare – con una certa evidenza – il divario tra le 96.002 segnalazioni inviate dagli utenti a LinkedIn per contenuti e offerte di lavoro potenzialmente a rischio di spam, odio, violenza, diffamazione, vendita illegale di beni, discriminazione, terrorismo, autolesionismo, disinformazione, e le “sole” 6,534 segnalazioni ritenute valide da LinkedIn e gestite di conseguenza.

Viene spontaneo chiedersi per quale motivo oltre il 90% delle segnalazioni degli utenti su LinkedIn sia stato rispedito al mittente senza ulteriori approfondimenti: sono gli utenti ad abusare in massa e in malafede dello strumento di segnalazione, o i moderatori ad avere troppa libertà di ignorare gli avvisi ricevuti senza subire alcuna conseguenza e penalizzazione? Sono gli utenti a non conoscere le regole della piattaforma, o i moderatori a sottovalutare casi di possibile violenza, razzismo, disinformazione, discriminazione? La risposta, purtroppo, non si trova nelle pagine di questi report.

Persone, oltre i numeri

Sarebbe un errore, tuttavia, concentrare tutte le critiche sulle sole aziende che hanno condiviso numeri così incompleti e ambigui, e ritenere che il Digital Services Act non abbia una qualche parte di responsabilità nel perpetuare le incertezze che da anni caratterizzano il settore della moderazione di contenuti.

Se il Regolamento ha avuto il merito – come ricordato all’inizio di questo articolo – di confermare una volta per tutte che il lavoro di moderazione online è principalmente un lavoro compiuto da persone per altre persone, tuttavia esso appare ancora ben distante dal rendere trasparenti dei processi di segnalazione, controllo, rimozione e penalizzazioni di contenuti e utenti online compiuti da moderatori senza volto, privi di numeri di identificazione personale e avvolti dall’anonimato che le aziende garantiscono loro in cambio della totale discrezione sui processi decisionali.

Conclusioni

Se c’è una cosa che i numeri di questi report non possono svelare è la quotidianità del lavoro dei moderatori, la complessità del loro incarico che si scontra inevitabilmente con una richiesta di “performance” crescenti che lascia poco tempo alla riflessione, allo studio del contesto e all’approfondimento caso per caso: chi sono, dove lavorano, come agiscono, che rapporto di possibile conflitto di interessi hanno con i contenuti e le persone che devono verificare, che competenze hanno per agire e in che misura il loro ristretto numero influenza la qualità delle loro scelte? Persone, oltre i numeri: e se fosse questo il titolo di uno dei prossimi report?

Immagine che contiene testo, schermata, Carattere, numeroDescrizione generata automaticamenteNon solo LinkedIn: solo un settimo delle segnalazioni della categoria “Defamation” porta a una rimozione dei contenuti segnalati su Facebook, secondo il Transparency Report for Facebook.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3