Da una cinquantina nel 2014, a fine 2019 erano già oltre 195 le organizzazioni di fact-checking attive, secondo un’indagine della Duke University Reporters Lab citata in un articolo della Columbia Journalism Review.
In un contesto in così rapida evoluzione i confini dell’industria del fact-checking sono sempre meno definiti, costantemente allargati dal flusso crescente di finanziamenti assicurato dalle grandi piattaforme digitali globali che hanno stretto accordi di collaborazione con i maggiori player del settore.
Organizzazioni no-profit, gruppi editoriali tradizionali e aziende native digitali specializzate nei servizi di fact-checking sono oggi sempre più ricercate e necessarie, ma il loro modello di business e le regole di ingaggio e supervisione in aperto conflitto d’interessi gettano ben più di un’ombra sul loro futuro.
Bufale sul Covid-19, Quattrociocchi: “Ecco i numeri sulla responsabilità dei social”
Un modello di business che privilegia la quantità rispetto alla qualità
A finanziare i fact-checker, di oggi e di domani, sono sempre più le aziende come Google e Facebook, interessate a difendersi dall’accusa di veicolare attraverso le proprie piattaforme digitali e i propri algoritmi un numero imprecisato di fake news e campagne di disinformazione di varia natura e obiettivi. A differenza dei giornalisti, i fact-checker non hanno infatti come obiettivo quello di pubblicare notizie inedite ma di verificare le notizie e informazioni pubblicate da altri e già ampiamente diffuse e commentate dagli utenti dei social media e altre piattaforme digitali globali. I fact-checker sono, almeno sulla carta, professionisti esperti di verifica delle fonti e correzioni di informazioni false, parzialmente false o manipolate, e sono assunti o collaborano con un’organizzazione specializzata che ha stretto accordi commerciali con Facebook o altre aziende tecnologiche al fine di verificarne i contenuti dietro il pagamento di una cifra predefinita.
Ad oggi, nessuno conosce il valore totale degli accordi commerciali stipulati tra piattaforme digitali e organizzazioni di fact-checker e nessuno può dire con assoluta certezza se l’attività di fact-checking possa essere economicamente sostenibile e profittevole nel lungo periodo. Secondo la stessa Columbia Journalism Review, un’ex-organizzazione di fact checking come Snopes, che ha interrotto i rapporti con Facebook nel 2019, avrebbe guadagnato da quest’ultima 100 mila dollari nel 2017 e 600 mila nel 2019, mentre ammonterebbero a 188 mila dollari nel 2018 e 242 mila dollari nel 2019 i ricavi dichiarati da FactCheck.org. Secondo un report della NYU Stern School of Business, dedicato espressamente al programma di fact-checking di Facebook che coinvolge non meno di 80 organizzazioni a livello globale, il pagamento dell’attività di fact-checking sarebbe proporzionale al numero di notizie effettivamente revisionate fino a un valore massimo predefinito: Lead Stories di Los Angeles, in questo contesto, avrebbe guadagnato oltre 359 mila dollari nel 2019 impiegando solamente sei fact-checkers in modalità part-time.
A fronte di questo sistema di finanziamento, che privilegia la quantità di contenuti revisionati in luogo della qualità dell’analisi e della rilevanza delle notizie, è importante sottolineare come la capacità operativa delle aziende di fact-checking sembri essere tuttora sottodimensionata rispetto al fabbisogno: secondo lo stesso report della NYU Stern School of Business, infatti, un’organizzazione di fact-checking riconosciuta come PolitiFact riuscirebbe a verificare non più di 20 notizie potenzialmente false a settimana, rispetto a un totale di 2.000 contenuti segnalati da Facebook ai suoi fact-checker attraverso una piattaforma interna dedicata. Non è sbagliato, quindi, ipotizzare che i margini di crescita per ulteriori player e professionisti del settore siano ancora molto ampi rispetto alle necessità degli utenti delle piattaforme e delle piattaforme digitali stesse, almeno fino a quando queste ultime saranno interessate a investire somme crescenti per esternalizzare un servizio che i loro moderatori di contenuti non riescono o non sono in grado svolgere.
Regole di ingaggio decise dalle piattaforme digitali: un bel conflitto d’interesse
Le somiglianze tra fact-checker e moderatori di contenuti, in questo senso, sono davvero troppe per poter essere ancora ignorate: entrambi lavorano per le piattaforme digitali ma per lo più assunti da agenzie terze specializzate e a cui le piattaforme subappaltano l’attività di revisione; entrambi sono invisibili e inaccessibili alla maggior parte degli utenti che pur avrebbero interesse a comunicare direttamente con loro; entrambi dipendono dalle piattaforme per decidere quali contenuti revisionare e quali trascurare; entrambi sono chiamati a privilegiare la quantità dei contenuti revisionati o moderati anziché la qualità e la profondità dell’analisi; entrambi, infine, sono supervisionati dalla stessa azienda digitale i cui contenuti dovrebbero, teoricamente, limitare o censurare del tutto. Parlare di vero e proprio conflitto di interessi non sembra a questo proposito eccessivo: un’inchiesta di FastCompany sull’argomento ha sollevato il dubbio che “Facebook affronti il problema della disinformazione ancora oggi come un tema puramente di reputazione aziendale, anziché come un problema sistemico causato dal suo business model”.
Moderatori social, lavoratori “obsoleti” ma indispensabili: chi sono gli invisibili della rete
L’inchiesta, pubblicata pochi mesi fa, ricostruisce infatti diversi episodi in cui Facebook avrebbe fatto pressione sui propri fornitori di servizi di fact-checking per costringerli a cambiare gli avvisi che questi ultimi avevano aggiunto ad alcuni contenuti falsi presenti sul social, nel caso specifico sul tema del cambiamento climatico, modificando la propria valutazione da “falso” a “parzialmente falso” quando non rimuovendo del tutto gli avvisi destinati a mettere in guardia gli utenti. Senza entrare qui nei dettagli, è importante sottolineare la sempre più stretta dipendenza che le aziende di fact-checking hanno nei confronti dei propri committenti privati, dal punto di vista finanziario e organizzativo: sono le piattaforme a decidere quali contenuti sottoporre alle agenzie di fact-checking, quali tipologie di avvisi o “etichette” questi ultimi possono apporre ai contenuti revisionati, e sono sempre le piattaforme a valutare l’operato dei fact-checker attraverso metodologie sviluppate internamente, scegliendo di volta in volta se rinnovare o meno il contratto di fornitura di servizi.
Che cosa impedisce, oggi, a Facebook o Google di esentare dal fact-checking i contenuti di un importante inserzionista? Niente, a parte la propria policy interna da sempre mutevole.
A questo proposito, infine, è utile ricordare qui la scelta di Facebook di aggiornare le proprie policy al fine di rimuovere l’esenzione speciale accordata ai politici di tutto il mondo rispetto alle regole di moderazione di contenuti. Seguendo le raccomandazioni del proprio Oversight Board, a sua volta una diretta emanazione di Facebook seppur indipendente sulla carta, Facebook ha deciso di sottoporre i contenuti pubblicati dai politici alle stesse regole di policy applicate per qualsiasi altro utente della piattaforma, dopo aver per anni applicato due pesi e due misure: gli stessi contenuti, come ricordato tra gli altri anche da Wired[1], non saranno tuttavia sottoposti alla revisione dei fact-checker ma solo a quella dei moderatori. Eppure, secondo un’indagine realizzata da Iconsulting[2], sarebbero proprio i politici i principali propagatori di fake news riguardanti la pandemia: bollare il post di un candidato presidente o di un presidente eletto come “falso” o “parzialmente falso”, tuttavia, potrebbe rappresentare per il social media di Menlo Park un punto di non ritorno nei propri rapporti istituzionali, come ha dimostrato il caso di Twitter sempre più sotto pressione in India dopo aver etichettato come “falso” il tweet di un ministro del governo.
Le piattaforme delegano ai fact-checker quello che noi abbiamo delegato alle piattaforme
Se le piattaforme digitali hanno potuto fin qui esternalizzare una parte del proprio servizio di moderazione di contenuti e fact-checking verso organizzazioni terze, sconosciute e quasi del tutto inesistenti fino a pochi anni fa, è anche una conseguenza della scelta di molti utenti e comunità di esternalizzare alle piattaforme stesse la “scelta” su ciò che è vero e ciò che è falso. “Abbiamo esternalizzato queste decisioni ad aziende e corporation private” ha dichiarato in tal senso Andrew Dessler, uno dei fact-checker intervistati da FastCompany e professore della Texas A&M University. La soluzione? Potrebbe essere quella di togliere alle piattaforme il potere di assegnare o rimuovere etichette sulle informazioni false, verificate o parzialmente false, e restituirlo ad organizzazioni di fatto indipendenti: una soluzione già sperimentata in alcuni Paesi del mondo, come l’Ucraina, in cui un sito web di debunking lanciato da studenti, professori e alunni della Kvyv Mohyla School of Journalism ha permesso di verificare oltre 1.000 fake news diffuse dai media russi in occasione della guerra nel Donbass, come riportato nel libro “Computational Propaganda” (Oxford University Press, 2018). Un caso raro, ma non unico, di mobilitazione dal basso e locale rispetto al modello verticale e globale imposto da Facebook alle organizzazioni di fact-checking di tutto il mondo.
Conclusioni
In questo contesto, c’è ancora molto da fare per inquadrare con la dovuta precisione i contorni dell’industria del fact-checking e dell’impatto economico, culturale e sociale di quest’ultima. Quanti sono, ad oggi, i contenuti che sono stati effettivamente revisionati dai fact-checker? Chi verifica le competenze professionali dei fact-checker e l’assenza di conflitti di interesse con i contenuti che devono revisionare? A partire da quali criteri Facebook e altre piattaforme digitali scelgono di sottoporre determinati contenuti potenzialmente falsi, in luogo di altri? E quali sono le penalità assegnate a coloro che diffondono ripetutamente notizie false e informazioni fuorvianti, al di là di una generica “riduzione della visibilità” nei flussi di notizie degli utenti? Da persona che studia e ha studiato le dinamiche della moderazione di contenuti, la previsione è che la maggior parte di queste domande resteranno senza risposta ancora per molto tempo, mentre l’esigenza di porre dei limiti sia alla disinformazione sia allo strapotere delle piattaforme digitali sarà destinata a crescere in tutte le società e a tutti i livelli della popolazione. Per fortuna, come dimostra il caso ucraino, le soluzioni non sono troppo lontane dalla nostra portata.
Note
[1] https://www.wired.it/internet/social-network/2021/06/04/facebook-modererazione-post-politici/
[2] https://www.corrierecomunicazioni.it/media/fake-news/fake-news-sui-vaccini-i-politici-sono-i-meno-affidabili-su-twitter/