Il bando di Casapound in fondo era atteso. Facebook lo aveva annunciato già nel marzo di quest’anno: “bandiremo i contenuti nazionalisti, razzisti o comunque portatori di odio dalle nostre piattaforme”. Un cambiamento molto significativo che veniva incontro a richieste ormai storiche, provenienti da tante parti, ma per lo più risalenti a molti anni or sono da gruppi in difesa dei diritti civili americani che affermavano che il gigante della tecnologia e dei social network non riusciva a “controllare” la portata potenzialmente devastante dei post estremisti diffusi sui suoi social media.
Estrema destra fuori da Facebook, l’evento scatenante
La minaccia rappresentata dal nazionalismo estremista di destra su Facebook, è stata drammaticamente sottolineata nel corso del mese di marzo di quest’anno, quando un estremista-razzista armato ha ucciso 49 persone in due moschee in Nuova Zelanda, usando proprio la piattaforma per pubblicare il video tramite una diretta Facebook dell’attacco. Facebook è immediatamente corsa ai ripari, anche grazie alle segnalazioni degli utenti, ed ha rimosso il video e l’account del sicario, sia su Facebook che su Instagram, ma in pochi minuti, il filmato è stato ampiamente ri-condiviso su YouTube e Twitter sfuggendo di fatto dal controllo di Facebook stessa.
La società anche in precedenza aveva vietato il contenuto degli estremisti dalle sue piattaforme ma di fatto ha sempre mantenuto un atteggiamento più “morbido” che, in molti casi, si era limitato alla rimozione di singoli post o commenti e più di rado alla chiusura del profilo o della pagina. Proprio dopo quanto successo in Nuova Zelanda invece, ha subito affermato che il suo approccio sarebbe cambiato e che il rispetto delle sue regole, già presenti e formalmente accettate da tutti gli utenti e le pagine all’atto dell’iscrizione, sarebbero state oggetto di verifiche molto più restrittive.
9 Settembre 2019 – Casa Pound e Forza Nuova
Proprio nella giornata di ieri, si è diffusa la notizia della cancellazione delle pagine ufficiali e dei profili riferiti ad elementi di spicco dei due movimenti politici di estrema destra.
Dura la reazione dei protagonisti della “censura” che dagli altri social network (in particolare da Twitter) hanno riassunto il loro punto di vista sulla situazione parlando espressamente di “abuso”. Qui il tweet del leader di Casa Pound Simone Di Stefano:
Non si è fatta attendere la reazione di Facebook Italia che difende il suo operato, con una dichiarazione ufficiale fatta da un portavoce:
“Le persone e le organizzazioni che diffondono odio o attaccano gli altri sulla base di chi sono non trovano posto su Facebook e Instagram. Per questo motivo abbiamo una policy sulle persone e sulle organizzazioni pericolose, che vieta a coloro che sono impegnati nell’”odio organizzato” di utilizzare i nostri servizi. Candidati e partiti politici, così come tutti gli individui e le organizzazioni presenti su Facebook e Instagram, devono rispettare queste regole, indipendentemente dalla loro ideologia. Gli account che abbiamo rimosso oggi violano questa policy e non potranno più essere presenti su Facebook o Instagram”.
La policy di Facebook
La policy a cui viene fatto riferimento è quella riportata in questo link, ed è quella che tutti noi abbiamo “implicitamente” accettato all’atto dell’iscrizione asserendo di aver letto integralmente.
Non sono stati resi noti esattamente però quali post e quali contenuti avrebbero violato la policy ma sicuramente Facebook sarà in grado di fornirli alle autorità in caso di un probabile ricorso.
Il ban comunque è stato “chirurgico” ed è stato attuato su più profili tutti riconducibili alle due organizzazioni di estrema destra, sia su Facebook che su Instagram. Una scelta improvvisa, ma che, tutto sommato, non deve sorprendere viste le scelte dichiarate fin dal Marzo scorso. Le “schermaglie” tra Casapound e Facebook infatti, risalgono già al mese di Aprile quando Casapound ricevette una prima ammonizione formale a seguito delle tante segnalazioni ricevute su tantissimi post che portarono al blocco di diversi account. Quella della giornata di ieri dunque è una “seconda azione”, un cartellino rosso, certamente più decisa, rispetto alla prima che Casapound definì subito come una “rappresaglia” preconcetta e priva di fondamenti.
Facebook, da parte sua, spiega che il proprio intervento non è assolutamente una scelta ideologica, bensì una precisa presa di posizione basata su contenuti ben identificati e inequivocabili e sull’impossibilità di poter continuare a tollerare messaggi palesemente riconducibili all’odio e alla discriminazione.
Verifiche del rispetto della policy – connubio tra Intelligenza Artificiale ed interventi umani
E’ già da qualche anno che Facebook utilizza sempre più l’intelligenza artificiale per rilevare e contrastare contenuti violenti e pericolosi sulla sua piattaforma, ma questo approccio da solo, per ora, semplicemente non funziona e non può essere autonomo.
Indipendentemente da ciò che continuano a sostenere le aziende che “producono” algoritmi di Intelligenza Artificiale, questa non potrà risolvere (da sola) il problema della moderazione dei contenuti online. È una promessa che abbiamo sentito molte volte, in particolare anche dal CEO di Facebook Mark Zuckerberg in persona, ma in questo momento, molti che studiano e sviluppano questa tecnologia (compreso chi scrive) sono concordi nel sostenere che la tecnologia non è, e non sarà ancora per molto tempo, in grado di operare in completa autonomia delle scelte di individuazione di contenuti (testo, video e foto) che potenzialmente violano le policy imposte.
Tutti i social network principali (Facebook, Instagram, Twitter, LinkedIn) sorvegliano i contenuti indesiderati che “vivono” nelle proprie piattaforme, utilizzando una combinazione di filtri automatici coadiuvati da moderatori umani. Tra l’altro, i moderatori umani spesso lavorano in condizioni molto stressanti che li costringe ad operare molto velocemente quando l’algoritmo automatico gli sottopone dei contenuti sospetti (che sono una mole immensa). I dipendenti con questa mansione infatti, devono fare click su centinaia di elementi di contenuti segnalati (o in automatico dagli algoritmi o da altri utenti della piattaforma) ogni giorno; dall’omicidio, all’abuso sessuale, al suicidio, all’odio raziale, etc. e quindi decidere se il contenuto violi o meno le regole di una piattaforma, è veramente complicato.
Durante le sue (famose) audizioni di fronte al congresso dell’anno scorso, Zuckerberg ha citato l’intelligenza artificiale più di 30 volte come unica risposta a questa e ad altre questioni.
Come disse giustamente James Grimmelmann, professore di legge alla Cornell Tech, al Washington Post, “l’intelligenza artificiale non risolverà i problemi di Facebook, ma proverà a risolvere quelli di Zuckerberg: convincere cioè, che sia qualcun altro a doversi assumere le responsabilità per determinate azioni e non lui”.
Ma cosa sta facendo l’AI per Facebook e perché non è possibile fare di più?
Al momento, i sistemi automatizzati che utilizzano l’AI e l’apprendimento automatico (Machine Learning) stanno sicuramente facendo molto per aiutare la moderazione dei social network. Agiscono come una specie di sistema di triage, ad esempio indirizzando i contenuti sospetti ai moderatori umani e potendo eliminare da soli alcune cose indesiderate di semplice individuazione.
Ma il modo in cui lo fanno è relativamente semplice.
- usando il riconoscimento visivo per identificare un’ampia categoria di contenuti (come “nudità” o “armi”), che però può essere soggetto ad errori;
- abbinando il contenuto a un indice di articoli vietati, il che richiede innanzitutto che gli umani creino e tengano aggiornato tale indice (data base dei contenuti vietati).
Quest’ultimo approccio viene utilizzato per sbarazzarsi del materiale di violazione più evidente; cose come video di propaganda di organizzazioni terroristiche, materiale per abusi sui minori e contenuti protetti da copyright. In ogni caso, comunque, il contenuto prima di essere definitivamente eliminato, viene identificato e inviato in cancellazione dagli “umani”. Il connubio tra la tecnologia e l’intervento umano è ampiamente affidabile, ma può ancora causare dei problemi.
Altri casi in Italia e in Europa
Ovviamente quello avvenuto ieri, non è il primo caso dopo le decisione assunte da Facebook nel Marzo scorso. In base ai principi che abbiamo enunciato in precedenza, a maggio erano state già ‘bannate’ le seguenti organizzazioni:
- Generation Identify (Pan-Euro)
- Inferno Cottbus 99 (Germania)
- Boris Lelay (Francia)
- Beke Istvan Attila (Ungheria)
- Szocs Zoltan (Ungheria)
- Varg Vikernes (Norvegia)
- Scrofa Division (Olanda)
- Chelsea Headhunters (Gran Bretagna)
- White Front (Bulgaria)
- Varese Skinheads (Italia)
- Ultras Sette Laghi (Italia)
- Black Storm Division (Italia)
- Rivolta Nazionale (Italia)
Non saranno ovviamente nemmeno gli ultimi provvedimenti e già quotidianamente vengono chiusi molti profili che violano le regole ma magari non sono riconducibili a vere e proprie organizzazioni, dunque il “rumore” provocato è molto ridotto.
E’ certamente importante che tutte le piattaforme social lavorino costantemente per garantire la sicurezza ed il rispetto delle regole. Nessuno di noi sarebbe incentivato a vivere la propria vita social se non ci fossero delle garanzie per il rispetto della dignità umana, che passa dall’uso di un linguaggio consono e non intimidatorio, al rispetto delle differenti etnie o religioni. E sappiamo bene come i social network siano interessati a far sì che passiamo sempre più tempo nelle loro piattaforme per mantenere i ricavi da esso derivanti.