Il ricorso a internet, e in particolar modo ai social network, come mezzo per l’incitamento all’odio (politico, religioso, razziale, di genere o di orientamento sessuale) rende sempre più necessaria la messa a punto di adeguate risposte a livello giuridico e l’adozione di mezzi efficaci per contrastare il cosiddetto hate speech.
L’Europa – come vedremo – ha fatto notevoli passi avanti sia in termini di inquadramento che di regolazione dell’hate speech e le piattaforme online stanno provando a mettere in campo qualche contromisura, ma si tratta di una missione quanto mai complessa, data la “liquidità” propria del web e le difficoltà, conseguenti, nello stabilire, tra le altre cose, quando un’espressione rientri nella definizione di hate speech; chi debba decidere quali contenuti devono essere rimossi e, soprattutto, se tale decisione sia di competenza dei big della rete o dei vari governi.
Il dibattito su questi temi, anche in Italia, si è acceso particolarmente in seguito alla recente decisione di Facebook di cancellare delle pagine ufficiali e dei profili riferiti ad elementi di spicco di due movimenti politici di estrema destra, Casapound e Forza Nuova (ma anche, successivamente, della pagina satirica Socialisti Gaudenti, poi subito ripristinata perché si era trattato – ha spiegato Facebook – di un “errore dell’algoritmo”).
Lecito, quindi, porsi qualche domanda su quali siano i tratti propri dell’hate speech veicolato tramite Internet, su come definirlo e come contrastarlo in modo adeguato, e anche – ma questo merita una ulteriore riflessione – su come garantire un processo di moderazione dei contenuti online efficace e trasparente.
Libertà d’espressione e hate speech, quale confine?
Quel che è certo è che il web ha trasformato la diffusione del pensiero da quantitativamente limitata e circoscritta nel tempo e nello spazio, a capillare, globale e permanente.
I social network – nati come luogo socializzazione, dibattito e condivisione di informazioni – si sono ben presto trasformati in uno strumento per la trasmissione di manifestazioni d’odio sempre più diffuse, grazie alla possibilità di rimanere anonimi e costruire false identità e false notizie.
Google, Facebook, Twitter e Youtube, dal canto loro, si trovano ad operare a livello globale con un approccio “europeo” restrittivo in termini di contrasto al linguaggio dell’odio.
Inizialmente i Big della Rete hanno rifiutato, secondo il modello americano, ogni forma di censura nei confronti dei loro utenti, successivamente hanno iniziato a contrastare progressivamente la diffusione dell’hate speech per evitare che molti utenti abbandonassero social e piattaforme a causa dalla diffusione della violenza.
Quali misure per contrastare l’hate speech
La situazione risulta estremamente nebulosa e richiede maggiori normative in grado di cogliere la “liquidità” del web: uno spazio “fluido” trans-nazionale, senza confini dove si rende necessario stabilire il grado di “coinvolgimento” dei Big della Rete a livello nazionale e internazionale, se si vuole raggiungere una policy uniforme di rimozione di quei contenuti che risultano non essere conformi agli standard prescelti. È altrettanto importante prevedere, unitamente a misure restrittive di contrasto, una serie di attività di sensibilizzazione e di prevenzione per garantire sia un processo di educazione digitale sia la diffusione di cultura del rispetto dei diritti altrui.
L’introduzione di divieti e limitazioni alla diffusione dell’hate speech rappresenta in Europa – da un punto di vista giuridico – un tema delicato e problematico, dal momento che impatta su principi fondamentali dell’ordinamento comunitario e degli ordinamenti costituzionali dei vari Paesi membri, in particolare per ciò che concerne il principio di eguaglianza e della non discriminazione da un lato, la libertà di espressione dall’altro lato.
La Corte Europea dei Diritti dell’Uomo ha ribadito in diverse occasioni che “le leggi volte a contrastare il linguaggio dell’odio e a reprimere atti ispirati dal razzismo e dalla xenofobia, rappresentano – in una società democratica – una limitazione legittima della libertà di espressione in favore della tutela necessaria della reputazione degli individui e delle libertà fondamentali”
Lo scorso febbraio 2019 è stato pubblicato il nuovo report sul monitoraggio del“Codice di Condotta per lottare contro le forme illegali d’incitamento all’odio on-line”, promulgato dalla Commissione Europea nel 2016 e sottoscritto anche da Facebook, Youtube, Instagram e Twitter.
Tale “Codice di Condotta” prevede una serie di pratiche da attuare, all’interno delle piattaforme, per una pronta revisione e cancellazione dei contenuti incitanti all’odio, sulla base delle segnalazioni degli utenti della community.
I risultati del Report sembrano dare segnali incoraggianti: nell’88,9% dei casi le piattaforme digitali coinvolte hanno esaminato i contenuti segnalati come hate speech entro le 24 ore previste dal Codice. Facebook riporta addirittura un tasso del 92,6%.
Nel primo trimestre del 2018 i Big della Rete hanno eliminato i contenuti nel 71,7% dei casi segnalati, mentre nel quarto trimestre del 2018, si è registrato un forte aumento del tasso di rimozione da parte di Facebook (82.4%) e di YouTube (85,4%. Twitter, che risulta essere più “tollerante”, ha rimosso soltanto il 43,5% dei contenuti segnalati.
Tra i contenuti più segnalati a livello europeo, la xenofobia, l’orientamento sessuale e l’islamofobia.
Facebook e la carta dell’oversight board
Proprio in questi giorni Facebook ha pubblicato l’annunciata “Carta” dell‘”Oversight Board”, una sorta di Corte d’Appello “indipendente” che deciderà in merito ai contenuti da cancellare, alla libertà d’espressione, all’hate speech. Si tratta di un organismo di sorveglianza transnazionale che avrà come scopo la protezione della libertà di espressione e prenderà decisioni sui contenuti operando in maniera trasparente e spiegando sempre le motivazioni al pubblico.
La “Carta” dell‘”Oversight Board”, come si legge sul sito Facebook stabilisce che “la libertà di espressione è un diritto fondamentale. Facebook cerca di dare alle persone una voce così da connettersi, condividere idee ed esperienze e comprendersi l’un con l’altro. La libertà di espressione è sovrana, ma ci sono momenti in cui i contenuti possono essere in contrasto con autenticità, sicurezza, privacy e dignità. Alcune forme di libera parola possono mettere a rischio l’abilità di altre persone di esprimersi liberamente. Quindi bisogna trovare un bilanciamento.”
Quali problematiche rimangono insolute
L’Europa ha fatto notevoli passi avanti sia in materia di definizione ed inquadramento del fenomeno dell’hate speech, sia nella sua “regolamentazione” normativa.
Tuttavia, potrebbe essere discutibile affidare soltanto ad alcune grandi aziende private il delicato compito di vagliare la fondatezza e l’attendibilità delle segnalazioni di hate speech pervenute da parte dei loro utenti e, soprattutto, di decidere quali contenuti sia opportuno rimuovere senza che la decisione sia assistita da garanzie giurisdizionali.
Inoltre, la tempestiva rimozione dei contenuti di odio dalle piattaforme on-line, entro le 24 ore, potrebbe rivelarsi una modalità “repressiva”, ossia una misura incapace di prevenire/ostacolare il proliferare di espressioni d’odio e di discriminazione, rivelandosi solo una modalità di mancata “diffusione” attraverso la rete.
Il contrasto all’hate speech dovrebbe consistere anche nel ridurre il disagio sociale diffuso, nel responsabilizzare maggiormente i cittadini, nel rafforzare le “contro-narrazioni” e nell’impiegare gli strumenti di diritto a disposizione.
Sarà necessario anche un utilizzo più consapevole delle nuove tecnologie, evitando così ad un mero algoritmo, alla base dell’AI, la capacità di giudicare cosa sia discriminatorio ed offensivo.
Angelo Marcello Cardani, presidente dell’Agcom, nel corso della tavola rotonda “Hate Speech and Artificial Intelligence Tools” dello scorso 31 gennaio 2019 a Bruxelles, ha espresso la necessità di unire l’azione dell’AI – che permette di rilevare in automatico gli hate speech – al necessario intervento umano affidando la valutazione ad una persona in quanto, per il momento,“le attuali forme di moderazione e supervisione dei contenuti da parte di persone, che si occupano proprio di questo, sono insufficienti a causa dell’enorme estensione del fenomeno dell’hate speech. D’altra parte, gli strumenti di AI esistenti necessitano di una messa a punto prima di essere implementati per un’efficace individuazione automatica dei contenuti di incitamento all’odio.”.
È sufficiente una lettera scambiata, un semplice errore ortografico, per ingannare l’algoritmo e mandare in tilt i filtri automatici sviluppati per contrastare l’odio on-line, come dimostrato da un team di ricercatori dell’Università di Aalto, in Finlandia, e dell’ateneo di Padova. Il problema principale è dovuto dal fatto che il linguaggio umano è molto complesso. Anche quando si tratta di hate speech; per i sistemi automatizzati, è praticamente impossibile rilevare l’odio subdolo che utilizza frasi apparentemente innocue. Inoltre, anche in presenza di termini espliciti, il sistema potrebbe bloccare espressioni che, in realtà, sono state impiegate in un’accezione “amichevole” o “scherzosa”.
È stato inoltre evidenziato che i sistemi di AI garantiscono buoni risultati solo se vengono valutati sulla stessa banca dati con cui sono stati testati in quanto ogni minima variazione ne riduce l’efficacia sollevando inevitabilmente dubbi sulle modalità di blocco degli hate speech. Ne consegue che si corre il rischio di censurare contenuti inoffensivi e di pregiudicare la “libertà” della rete.
È necessario valutare attentamente i rischi etici, giuridici e sociali connessi ad un utilizzo irresponsabile dell’AI sempre più sofisticata a pervasiva. Si commettono meno errori se al centro delle valutazioni sarà posta la centralità dei diritti della persona, un universo di valori che comprende il contrasto alla discriminazione, alla manipolazione, alla polarizzazione ideologica e, nello stesso tempo, al determinismo algoritmico.