Facebook ancora nell’occhio del ciclone per lo scarso o nullo interesse che dimostra per la moderazione dei contenuti.
Jason Koebler ha scritto recentemente su 404 Media sull’argomento, sottolineando che l’atteggiamento della piattaforma di Mark Zuckerberg sia il preludio di ciò che accadrà ad altri social media e all’intero web: “Il presente di Facebook – un colosso morente, decadente, preso in mano dai contenuti dell’intelligenza artificiale e più o meno lasciato a marcire dal suo proprietario – sembra il futuro, o il risultato inevitabile, di altre piattaforme sociali e di un Internet dominato dall’intelligenza artificiale”.
Facebook e la crisi della moderazione dei contenuti
Facebook sarebbe come un centro commerciale morto, dentro il quale si aggirano delle persone senza saperne il motivo, e la maggior parte di ciò che viene loro mostrato è truffaldino o strano. Facebook ha cambiato la sua denominazione in Meta per segnare la svolta verso il metaverso, che adesso sembra un pallido ricordo.
Il parere di Sarah T. Roberts, professoressa dell’Università della California di Los Angeles, nonché autrice di “Behind the Screen: moderazione dei contenuti all’ombra dei social media”, è che il capo e il suo management non sanno quale sia il futuro, l’unica certezza è che Facebook non lo sarà: “Quindi c’è in atto un disinvestimento in Facebook, una situazione paragonabile alla deindustrializzazione di una città manifatturiera che perde la sua base”.
Perché investire nella moderazione non è più una priorità
Allo stato, investire in nuovi progetti, o nella moderazione dei contenuti, non appare redditizio, ma la piattaforma, sempre più piena di truffe crittografiche, phishing, hacking e truffe affettive, non scomparirà, almeno a breve, e la sua importanza nel mondo non scemerà. Facendo un passo indietro, nel 2018 Zuckerberg invitò professori e accademici per discutere su come
Facebook avrebbe potuto proteggere meglio le sue piattaforme dalla disinformazione elettorale, dai contenuti violenti, dal materiale pedopornografico e dall’incitamento all’odio. Facebook dichiarava di spendere centinaia di milioni di dollari e di assumere migliaia di moderatori umani di contenuti per rendere le sue piattaforme più sicure.
Dopo essere stato accusato dell’aumento delle “fake news” (che presumibilmente hanno aiutato Trump nel 2016) Facebook invitò i giornalisti a esaminare la sua war room elettorale spegò cosa stava facendo per sorvegliare la sua piattaforma. Successivamente, creò anche un “Organismo di Vigilanza”, (Oversight board) una sorta di Corte Suprema per le scelte difficili e per riesaminare “in appello” i ricorsi degli utenti contro le sue decisioni. Sempre nel 2018, Zuckerberg pubblicò un manifesto affermando che “la cosa più importante che noi di Facebook possiamo fare è sviluppare l’infrastruttura sociale per costruire una comunità globale” e che uno degli aspetti più importanti di questo sarebbe stato “costruire una comunità informata, inclusiva e sicura, che previene i danni e aiuta durante le crisi”.
L’IA e la proliferazione di truffe e spam su Facebook
Da qualche anno, Facebook è invaso da spam, generati dall’intelligenza artificiale, e da vere e proprie truffe. Molti dei soggetti che interagiscono con questi contenuti non sono persone, ma robot che a loro volta inviano spam alla piattaforma.
Immagini porno e non consensuali sono facili da trovare (anche su Instagram), così come pubblicità a pagamento di farmaci, carte di credito rubate, account compromessi e annunci di elettricisti e costruttori di tetti che sembrano adescare potenziali clienti con il lavoro sessuale.
Le contromisure adottate dalla piattaforma
Nei mesi scorsi Facebook ha adottato “nuovi strumenti per proteggersi dall’estorsione e dall’abuso di immagini intime” e per aiutare gli adolescenti a evitare le truffe di sextortion”.
Ha anche annunciato che avrebbe iniziato a “etichettare le immagini generate dall’intelligenza artificiale su Facebook e Instagram, ma ciò non è avvenuto. Nel suo “Rapporto sull’applicazione degli standard comunitari”, Meta ha reso noto di aver disabilitato, nel solo mese di agosto 2023, più di 500.000 account rei di aver violato le sue politiche sullo sfruttamento sessuale dei minori. È vero che ci sono ancora persone che lavorano sulla moderazione dei contenuti in Meta, ma alcuni esperti che un tempo avevano una visione approfondita di come Facebook prendesse le sue decisioni, oggi affermano di non sapere più cosa vi sta succedendo.
La crisi dello Stanford Internet Observatory
Molti dei professori che si consultavano direttamente o indirettamente con l’azienda affermano di non farlo da anni. Altri hanno cambiato il loro focus accademico dopo anni in cui si sono sentiti ignorati o addirittura molestati dagli attivisti di destra in quanto propugnatori della censura su Internet.
Che non sia un buon momento per i gruppi che hanno svolto ricerche sulla moderazione dei contenuti è confermato dalla profonda crisi dello Stanford Internet Observatory, che gestisce il Journal of Online Trust & Safety. Diversi ricercatori che hanno svolto lavori importanti, tra i quali proprio uno sul problema dello spam da IA di Facebook, hanno lasciato l’Osservatorio.
La battaglia di Elon Musk contro Media Matters
Media Matters è stato citato in giudizio da Elon Musk per aver rilevato che su X annunci di grandi marchi apparivano accanto a contenuti antisemiti e filo-nazisti. Recentemente, Media matters ha dovuto effettuare licenziamenti di massa. Il suo rapporto aveva portato diverse grandi aziende a ritirare la pubblicità da X, presumibilmente perché non volevano che i loro marchi fossero associati a contenuti antisemiti o di suprematisti bianchi e a Musk, che non solo ha consentito questo tipo di contenuti ma li ha spesso condivisi.
Secondo X, però, il 65 percento degli inserzionisti è tornato sulla piattaforma e il suo padrone ha speso molto tempo per limitare i danni, dato che, ad avviso di Bloomberg, i ricavi di X sono diminuiti in modo significativo. Ma questo colpo non ha affondato la piattaforma e Musk continua a sostenerla con la sua enorme ricchezza.
I repubblicani, e in generale la destra USA, vedono la crisi dei gruppi di ricerca e denuncia sulla moderazione dei contenuti sui social come una meritata resa dei conti per le piattaforme di tendenza liberale che, secondo il loro parere, hanno tolto la libertà di parola. Elon Musk, d’altronde, ha acquistato Twitter proprio per smantellare il team di moderazione dei contenuti e le sue regole.
La moderazione? Costa troppo
Facebook, dal canto suo, non può essere definita come una piattaforma ideale da questo punto di vista, piena com’è di bot, truffatori, malware, funzionalità esagerate, orribili immagini generate dall’intelligenza artificiale, account abbandonati e persone morte. La professoressa Roberts ha sempre sostenuto che la moderazione dei contenuti, in sostanza, è fatta guardando agli inserzionisti, non agli utenti.
L’argomento forza lavoro di moderazione dei contenuti di Meta, di cui una volta si parlava tanto, ora viene raramente trattato pubblicamente dall’azienda (Accenture, moderatore esterno, a un certo punto guadagnava 500 milioni di dollari all’anno dal suo contratto con Meta). Meta non commenta le accuse che le piovono addosso, comprese quelle sul suo (defunto) rapporto con il mondo accademico, sul suo approccio filosofico alla moderazione dei contenuti, sullo spam e sulle truffe basate sull’intelligenza artificiale.
Non si esprime sul possibile cambiamento nella strategia di moderazione generale dei contenuti, affermando anzi che oggi ha molti più moderatori umani di contenuti rispetto al 2018, 40.000 contro 20.000.
La verità, asserisce sempre la prof.ssa Roberts, è che la moderazione dei contenuti è costosa e che, dopo anni in cui si è parlato apertamente dell’argomento, forse Meta ora crede che sia meglio operare principalmente sotto traccia. “La moderazione dei contenuti, dal punto di vista della C-suite (i dirigenti senior, responsabili di garantire che le strategie e le operazioni siano in linea con le politiche e i piani dell’azienda) di Meta, è un mero centro di costo: non viene visto alcun vantaggio finanziario nel fornire quel servizio. Il management di vertice non è toccato dall’argomento (ovvio e vero) che, a lungo termine, avere una piattaforma ospitale genererà utenti che entrano e vi rimangono per un periodo di tempo più lungo; Meta è tornata alla segretezza su queste questioni perché al suo Ceo e ai suoi dirigenti fa comodo poter fare ciò che vogliono, anche abdicare alle proprie responsabilità riducendo i team di moderazione interni. Il vantaggio di esternalizzare questa funzione è di farli partire e ripartire praticamente con una telefonata”.
Danielle Citron: “Una situazione devastante”
Danielle Citron è professoressa alla School of Law dell’Università della Virginia. Ha lavorato con Facebook sulle immagini condivise sulla piattaforma senza consenso e sul sistema che segnala automaticamente immagini intime non consensuali e materiale pedopornografico sulla base di un database hash di immagini offensive, adottato da Facebook e poi da YouTube. La studiosa non è tenera nei confronti di Facebook: “è decisamente devastante. C’è stato un periodo in cui avevano capito il problema ed è stato molto gratificante vedere adottato il database di hash, considerandolo un possibile modo tecnologico per affrontare un problema sociale molto serio. Non lavoro con Facebook dal 2018. Abbiamo assistito allo smantellamento dei team di moderazione dei contenuti. Prima le aziende si preoccupavano per le conseguenze che avrebbero avuto le loro decisioni sulla moderazione dei contenuti. Ma la vicenda X – inserzionisti dimostra che la perdita di reputazione che porta questi ultimi a fuggire è temporanea”.
Abusi su Horizon Worlds: da Meta un’alzata di spalle
Secondo l’accademica, le piattaforme social hanno provato a vedere cosa succedeva se si trascurava la moderazione dei contenuti; constatato che la reazione è solo temporanea, le hanno deciso di risparmiare su questo. In un articolo sullo Yale Law Journal sulle donne che hanno subito abusi di genere e molestie sessuali nella piattaforma di realtà virtuale Horizon Worlds di Meta, la Citron ha denunciato che l’azienda ignora le segnalazioni degli utenti e si aspetta che gli obiettivi di questo abuso utilizzino semplicemente la funzione “confine personale” per ignorarlo. Da Meta solo un’alzata di spalle: non ci possiamo fare nulla.
Il che non è assolutamente vero, come sa bene chi ha collaborato con loro. Tutto ciò non può essere spiegato solo con le sortite di Elon Musk o con la reazione politica della destra. La Sezione 230 del Communications Decency Act permette in sostanza alle piattaforme di social media di avere ampia libertà, la libertà di non fare nulla per rendere il web un ambiente sano. E, fatto forse ancora più importante, due cause in discussione alla Corte Suprema USA (che deciderà in questi giorni) sembrano suggerire che la censura dei social media potrebbe portarli a decidere che la moderazione dei contenuti le potrebbe esporre a rischi maggiori.
Le conseguenze della mancata moderazione dei contenuti
Ma la scarsa moderazione dei contenuti, tuona la professoressa Roberts, genera truffatori i quali a loro volta producono contenuti inutili e schifosi, roba creata dall’intelligenza artificiale. “Cose da “Uncanny Valley”, che alla gente non piace e diventa sempre peggio. (Uncanny valley, valle inquietante: lo studioso di robotica Giappone Masahiro Mori nel 1970 dimostrò sperimentalmente come man mano che l’aspetto di un robot diventa più umano, la risposta emotiva delle persone diventa sempre più positiva ed empatica; raggiunta però una certa soglia muta rapidamente in forte repulsione. Tuttavia c’è da rilevare, rispetto a quanto affermato dalla Roberts, che l’aspetto del robot continua a diventare meno distinguibile da un essere umano, e per questa ragione la risposta emotiva ridiventa positiva e si avvicina ai livelli di empatia tra umani. La risposta repulsiva suscitata da un robot con aspetto e movimento “in un certo senso umano” o “totalmente umano” è la uncanny valley: un robot antropomorfo sembra eccessivamente strano per alcuni esseri umani, producendo una sensazione di inquietudine, rendendo quindi impossibile la risposta empatica richiesta per una interazione produttiva tra uomo e robot).
Conclusioni
In conclusione, possiamo affermare come si tratti di un film visto e rivisto tante volte. Le Big Tech operano in una certa direzione quando c’è in vista un guadagno (stratosferico, aggiungiamo). La moderazione costa? Produce più introiti e utili realizzarla seriamente, per tutelare gli utenti, oppure no? Da quanto abbiamo potuto verificare, grazie a 404 Media e agli esperti citati, sembra conveniente farne poca o non farla per niente. Per tagliare le uscite si ridimensionano i team interni e/o si esternalizza la funzione. E le persone che frequentano i social? Solo numeri e dati da far fruttare.