Nel lungo cammino che sta percorrendo per spostare il focus dei suoi algoritmi dalla rete sociale alla viralità automatizzata dei contenuti, Meta non sta dimenticando il tema della qualità dei contenuti più virali. E oggi dopo mesi e mesi di lavoro di un gruppo dedicato alla cura dei contenuti stanno arrivando finalmente i primi risultati. Parziali, limitati, ma per lo meno incoraggianti. Vediamo nel dettaglio di cosa si tratta.
Moderazione di contenuti, quanto spende Facebook? Rischi e variabili da considerare
Il lavoro dell’integrity team sulla qualità dei contenuti
A partire dal 2021, Meta ha iniziato a rilasciare un “content report” con cadenza trimestrale, finalizzato ad evidenziare il rapporto tra qualità e viralità dei contenuti. I primi report, gestiti dal team di qualità degli ingegneri di Meta (“integrity team”), evidenziavano che la maggior parte dei primi 20 contenuti per engagement e visibilità su Facebook erano sostanzialmente spam, link bait, contenuti pseudo sessuali e memi (inutili tormentoni) senza valore. La necessità di un controllo sui contenuti più virali nasceva da un’accusa molto seria che veniva mossa ai social, ovvero quella di essere polarizzanti. I social dividono, estremizzano e banalizzano le opinioni. Le opinioni estreme sono quelle che generano più reazioni, parlano alla pancia delle persone e scatenano il meccanismo di “adesione-opposizione”. Più reazioni equivalgono a più segnali per gli algoritmi di visibilità, che aumentano la diffusione e distribuzione dei contenuti più rumorosi. Messo in scala su milioni di contenuti, questo meccanismo genera un immane e roboante contesto di urla e strepiti social, che contribuiscono ad aizzare gli individui gli uni contro gli altri. Negli anni della pandemia, tutto questo si è trasformato in un’accusa molto pesante per i social, che sono stati additati come causa di diffusione di opinioni estreme e complottiste. Ma ancora di più è stato evidenziato l’effetto divisivo e disgregante dei social sulle relazioni sociali.
Così a partire dal 2021, il board di Meta ha potenziato “The integrity team” e iniziato a elaborare un report trimestrale per evidenziare la qualità dei contenuti più virali. Il team ha sviluppato un sistema di rating per misurare la qualità dei contenuti più virali. E insieme al team di sviluppo degli algoritmi, ha pian pianino aggiustato le regole di distribuzione dei contenuti.
Nell’ultimo report rilasciato nei giorni scorsi, finalmente solo un contenuto su 20 (dei top contents di Meta del trimestre) era classificabile come spam o contenuto di bassa qualità. I restanti 19 superavano invece l’esame del sistema di rating del Integrity Team. Anna Stepanov, dirigente Meta a capo del team di integrità si è dichiarata moderatamente ottimista. Ma anche consapevole che il lavoro è solo agli inizi.
Algoritmi e valore dei contenuti
Al di là dell’auto celebrazione di Meta per i propri risultati (che siano di fatturato o di integrità dei contenuti), è interessante notare che è in corso un cambiamento. In primo luogo, sta consolidandosi la consapevolezza del ruolo sociale delle piattaforme social. E questo significa che i parametri degli algoritmi iniziano ad includere anche riflessioni sul valore dei contenuti, non soltanto sulla loro capacità di intercettare la nostra attenzione e girare agilmente su milioni di schermi. In secondo luogo, il tema viene trattato in maniera complessiva. I contenuti di scarsa qualità rischiano di alienare tanto gli inserzionisti quanto una parte degli utenti. Il content report è in generale un grande passo avanti. Resta tuttavia un’auto rappresentazione che l’azienda offre di sé stessa. Si limita ai contenuti più virali a livello mondiale e non dice molto relativamente ai miliardi di post, notizie e video che vengono macinati dall’algoritmo su scala locale.
I social e il tema della libertà di parola
Come evidenzia il report, la maggior parte dei contenuti visibili nelle bacheche sono contenuti generati dalle condivisioni di notizie dei nostri amici, delle pagine che seguiamo e dei gruppi a cui apparteniamo. È in questa miriade di notizie che ogni giorno prende forma la nostra dieta mediatica e che viene decisa dagli algoritmi. Ma su questo capitolo, Meta non fa dichiarazioni precise. Come vengono costruiti i palinsesti individuali? Quali opinioni e notizie degli amici vengono preferite? E per quale ragione? Dietro a queste pieghe, al tema dello spam e della qualità si intreccia quello della “libertà di parola”. Argomento su cui il dibattito è aperto e complesso.
Anche Musk ha dichiarato guerra allo spam su Twitter e allo stesso tempo ha dichiarato la necessità di riportare la libertà di parola all’ambito legislativo e non a quello dei gusti delle piattaforme. Questo significa che ogni opinione è legittima se non lede la legge dello Stato. Ma non ci vuole molto per capire che se le opinioni scomode, strane e non gradite vengono messe all’angolo dall’algoritmo allora la libertà astratta di poter dire quello che si vuole è semplicemente uno slogan populista. Il tema è dunque di capire come gli algoritmi integrano e incorporano visioni del mondo, idee e ideologie e come riflettono gli obiettivi più grandi delle piattaforme.
A questo livello, il dibattito è più astratto ma più significativo e sfiora il tema di rendere pubblici gli algoritmi al fine di creare una vera trasparenza delle grandi piattaforme. L’argomento, tuttavia, almeno in parte e a differenza di quello che succedevano fino all’anno scorso, è finalmente oggetto di discussione. Non è più un tabù e le grandi piattaforme stesse hanno aperto almeno in parte un piccolo spiraglio sulle proprie banche dati. Un piccolo passo avanti è stato fatto.