moderazione

Contenuti di qualità sui social, Meta fa sul serio con l’Integrity Team: i primi risultati

A partire dal 2021, il board di Meta ha potenziato l’Integrity team e ha iniziato a elaborare un report trimestrale per evidenziare la qualità dei contenuti più virali. I risultati cominciano a vedersi, ed è importante che il tema non sia più un tabù, ma restano molti nodi

Pubblicato il 05 Dic 2022

Pierluigi Casolari

founder di Unconventional Road, autore di Startup 3.0, blog su startup, innovazione e web 3.0

Le violazioni di Whatsapp sotto la lente di EDPB

Nel lungo cammino che sta percorrendo per spostare il focus dei suoi algoritmi dalla rete sociale alla viralità automatizzata dei contenuti, Meta non sta dimenticando il tema della qualità dei contenuti più virali. E oggi dopo mesi e mesi di lavoro di un gruppo dedicato alla cura dei contenuti stanno arrivando finalmente i primi risultati. Parziali, limitati, ma per lo meno incoraggianti. Vediamo nel dettaglio di cosa si tratta.

Moderazione di contenuti, quanto spende Facebook? Rischi e variabili da considerare

Il lavoro dell’integrity team sulla qualità dei contenuti

A partire dal 2021, Meta ha iniziato a rilasciare un “content report” con cadenza trimestrale, finalizzato ad evidenziare il rapporto tra qualità e viralità dei contenuti. I primi report, gestiti dal team di qualità degli ingegneri di Meta (“integrity team”), evidenziavano che la maggior parte dei primi 20 contenuti per engagement e visibilità su Facebook erano sostanzialmente spam, link bait, contenuti pseudo sessuali e memi (inutili tormentoni) senza valore. La necessità di un controllo sui contenuti più virali nasceva da un’accusa molto seria che veniva mossa ai social, ovvero quella di essere polarizzanti. I social dividono, estremizzano e banalizzano le opinioni. Le opinioni estreme sono quelle che generano più reazioni, parlano alla pancia delle persone e scatenano il meccanismo di “adesione-opposizione”. Più reazioni equivalgono a più segnali per gli algoritmi di visibilità, che aumentano la diffusione e distribuzione dei contenuti più rumorosi. Messo in scala su milioni di contenuti, questo meccanismo genera un immane e roboante contesto di urla e strepiti social, che contribuiscono ad aizzare gli individui gli uni contro gli altri. Negli anni della pandemia, tutto questo si è trasformato in un’accusa molto pesante per i social, che sono stati additati come causa di diffusione di opinioni estreme e complottiste. Ma ancora di più è stato evidenziato l’effetto divisivo e disgregante dei social sulle relazioni sociali.

Così a partire dal 2021, il board di Meta ha potenziato “The integrity team” e iniziato a elaborare un report trimestrale per evidenziare la qualità dei contenuti più virali. Il team ha sviluppato un sistema di rating per misurare la qualità dei contenuti più virali. E insieme al team di sviluppo degli algoritmi, ha pian pianino aggiustato le regole di distribuzione dei contenuti.

Nell’ultimo report rilasciato nei giorni scorsi, finalmente solo un contenuto su 20 (dei top contents di Meta del trimestre) era classificabile come spam o contenuto di bassa qualità. I restanti 19 superavano invece l’esame del sistema di rating del Integrity Team. Anna Stepanov, dirigente Meta a capo del team di integrità si è dichiarata moderatamente ottimista. Ma anche consapevole che il lavoro è solo agli inizi.

Algoritmi e valore dei contenuti

Al di là dell’auto celebrazione di Meta per i propri risultati (che siano di fatturato o di integrità dei contenuti), è interessante notare che è in corso un cambiamento. In primo luogo, sta consolidandosi la consapevolezza del ruolo sociale delle piattaforme social. E questo significa che i parametri degli algoritmi iniziano ad includere anche riflessioni sul valore dei contenuti, non soltanto sulla loro capacità di intercettare la nostra attenzione e girare agilmente su milioni di schermi. In secondo luogo, il tema viene trattato in maniera complessiva. I contenuti di scarsa qualità rischiano di alienare tanto gli inserzionisti quanto una parte degli utenti. Il content report è in generale un grande passo avanti. Resta tuttavia un’auto rappresentazione che l’azienda offre di sé stessa. Si limita ai contenuti più virali a livello mondiale e non dice molto relativamente ai miliardi di post, notizie e video che vengono macinati dall’algoritmo su scala locale.

Moderazione online, è tempo di responsabilità per i social

I social e il tema della libertà di parola

Come evidenzia il report, la maggior parte dei contenuti visibili nelle bacheche sono contenuti generati dalle condivisioni di notizie dei nostri amici, delle pagine che seguiamo e dei gruppi a cui apparteniamo. È in questa miriade di notizie che ogni giorno prende forma la nostra dieta mediatica e che viene decisa dagli algoritmi. Ma su questo capitolo, Meta non fa dichiarazioni precise. Come vengono costruiti i palinsesti individuali? Quali opinioni e notizie degli amici vengono preferite? E per quale ragione? Dietro a queste pieghe, al tema dello spam e della qualità si intreccia quello della “libertà di parola”. Argomento su cui il dibattito è aperto e complesso.

Anche Musk ha dichiarato guerra allo spam su Twitter e allo stesso tempo ha dichiarato la necessità di riportare la libertà di parola all’ambito legislativo e non a quello dei gusti delle piattaforme. Questo significa che ogni opinione è legittima se non lede la legge dello Stato. Ma non ci vuole molto per capire che se le opinioni scomode, strane e non gradite vengono messe all’angolo dall’algoritmo allora la libertà astratta di poter dire quello che si vuole è semplicemente uno slogan populista. Il tema è dunque di capire come gli algoritmi integrano e incorporano visioni del mondo, idee e ideologie e come riflettono gli obiettivi più grandi delle piattaforme.

A questo livello, il dibattito è più astratto ma più significativo e sfiora il tema di rendere pubblici gli algoritmi al fine di creare una vera trasparenza delle grandi piattaforme. L’argomento, tuttavia, almeno in parte e a differenza di quello che succedevano fino all’anno scorso, è finalmente oggetto di discussione. Non è più un tabù e le grandi piattaforme stesse hanno aperto almeno in parte un piccolo spiraglio sulle proprie banche dati. Un piccolo passo avanti è stato fatto.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2