I social stanno sfruttando gli sviluppi dell’Intelligenza Artificiale, con le tecniche deep learning, per delegarle sempre più il compito di esaminare i contenuti illegali. E magari bloccarli prima che siano visti da qualche utente.
Questa tempestività è richiesta dalle istituzioni – in particolare per il contrasto alla propaganda terroristica, vedi il caso Christchurch andato live su Facebook, e i fenomeni di autolesionismo mostrati online in diretta.
E a testimonianza del fatto che per i big del web è un continui fine tuning, nei giorni scorsi Google-YouTube ha pubblicato nuove regole di contrasto all’hate speech.
L’efficacia dei social sui temi, proprio grazie all’AI, sta crescendo, quindi, come riportano i loro dati. Questa però è solo una faccia della medaglia.
È anche importante tenere conto anche dei diritti umani investiti; perché consegnare alle piattaforme social – e quindi agli algoritmi – la facoltà di eliminare contenuti sgraditi o illeciti, prima ancora che essi raggiungano gli utenti, pone seri rischi in termini di trasparenza e censura.
Cosa sta facendo Facebook per rimuovere i contenuti illeciti
Nell’ultimo Report sull’applicazione degli Standard della Community, pubblicato ad inizio di novembre di quest’anno, Facebook comunica di essere riuscito a rimuovere il 98% dei video e delle foto a tema terroristico, prima ancora che qualcuno potesse vederli o segnalarli.
Per identificare e classificare oggetti di qualsiasi tipo presenti nei video, sono utilizzati sistemi sofisticati di machine learning, grazie ai quali Facebook è in grado di “intercettare” contenuti pericolosi (secondo la classificazione delle nudità degli adulti ed attività sessuale, bullismo e molestie, nudità infantile e sfruttamento sessuale dei bambini, account falsi, hate speech, merci regolamentate quali farmaci ed armi da fuoco, propaganda terroristica, contenuti violenti e grafici, suicidio ed autolesionismo).
Un monitoraggio dei video in tempo reale, che fa uso delle reti neurali artificiali (sistemi di deep learning in grado di riconoscere immagini e linguaggio) intercetta le caratteristiche e i comportamenti di oggetti noti, classificati secondo percentuali diverse in base al grado di “fiducia/non pericolosità”.
Le reti neurali artificiali – programmate in base a combinazioni di video precedentemente classificati dai “moderatori umani” – sono in grado, in base alle segnalazioni ricevute dagli utenti e, prossimamente, in base ai video forniti dalla Metropolitan Police di Londra, di elaborare le informazioni ricevute e prevedere cosa verrà pubblicato in video e quali comportamenti o immagini saranno da considerate pericolose o problematiche, rimuovendole automaticamente o inviandole ai “mediatori umani” che, se confermeranno la non conformità agli standard, creeranno un “codice/hash” di riferimento. Successivamente tale “codice/hash” sarà divulgato all’interno di tutto il sistema, eliminando automaticamente tutti gli altri contenuti analoghi, impedendo così che vengano ricaricati. Inoltre, questi “codici/hash” possono essere condivisi con altre piattaforme social ed essere d’aiuto alle autorità preposte alla sicurezza in tema di prevenzione, in modo da aggiornare i vari attori sui file offensivi o su tematiche terroristiche presenti in rete.
Detto questo, per i post sul bullismo, sulle molestie e su varie forme di violenza, Facebook si basa ancora soprattutto sulle segnalazioni degli utenti in quanto solo il 16% di quei casi biasimevoli vengono rilevati dai sistemi di Intelligenza Artificiale. In questi casi si mostrano infatti anche i limiti dell’AI, che ha difficoltà a cogliere le sfumature di senso, i toni dell’ironia e distinguerli da quelli dell’offesa e della discriminazione.
Le contromisure di YouTube
YouTube è stata accusata in passato di non “ripulire” in modo efficace la piattaforma dai contenuti offensivi o pericolosi. Nell’ultimo anno ricercatori e giornalisti hanno rivolto particolare attenzione all’algoritmo di YouTube, denunciando come esso contribuisca a fomentare pericolose forme di radicalizzazione di ragazzi e al proliferare di casi in cui video di minori sono suggeriti a fianco di video sessualmente espliciti, che possono indurre a pensare che l’algoritmo stia favorendo il comportamento dei pedofili.
Anche YouTube, di conseguenza, ha iniziato a impiegare sistemi di Machine Learning e algoritmi e pubblica trimestralmente un rapporto sul grado di implementazione degli Standard della Community; tuttavia, le misure adottate non sembrano essere sufficientemente efficaci. Sembra che il problema sia determinato dal fatto che il sistema non sia in grado di comprendere il contesto in cui certi contenuti sono stati diffusi e, di conseguenza, può interpretarli in modo completamente opposto. A questo punto, la piattaforma social, all’inizio di giugno di quest’anno, ha annunciato la volontà di introdurre nuove misure atte a combattere l’odio ed il razzismo on line, la diffusione di fake news, nonché le varie forme di suprematismo bianco, di negazionismo dell’Olocausto o di complottismo.
Le nuove regole per i contenuti molesti su Youtube, annunciate la scorsa settimana, sono:
- Le norme proibiranno non solo le minacce esplicite (come già avviene), ma anche quelle velate o implicite
- Non saranno più tollerati contenuti che insultino qualcuno sulla base di caratteristiche personali e sensibili, come la provenienza o l’etnia, l’identità di genere o l’orientamento sessuale
- I canali che violeranno e si opporranno alle norme verranno messi nelle condizioni di non poter più guadagnare dalla nostra piattaforma, fino alla chiusura del canale
- Gli aggiornamenti alle norme verranno applicati anche ai commenti, con un potenziale aumento rispetto ai già 16 milioni di interventi nel primo trimestre
- Anche i creator potranno intervenire nelle conversazioni, segnalando i commenti che, pur non violando apertamente le nostre norme, risultano essere inappropriati
Inoltre, è di questi giorni l’entrata in vigore di un ulteriore cambiamento delle policy di YouTube: saranno rese più restrittive le norme legate alla violenza dei videogame, nel senso che solo i maggiori di 18 anni potranno visualizzare i video con grafici violenti e addirittura, qualora si riscontrasse che la violenza ne fosse l’essenza stessa e il fine ultimo, YouTube non esiterà a porvi delle ulteriori limitazioni o ad eliminarlo
Il lato oscuro dell’intelligenza artificiale: quale futuro ci attende?
L’intelligenza artificiale, pur contribuendo a facilitare e velocizzare l’attività da “sceriffi” esercitata da Facebook e YouTube, può cancellare preventivamente alcuni contenuti non contestualizzati che, di fatto, rispettano la policy e risultano essere di cruciale importanza per una società liberale e democratica, quali la trasmissione della storia, della cultura e della religione.
Il sistema interviene in modo automatico senza distinguere l’intenzione con cui certi contenuti o immagini siano stati diffusi, dimostrando come nessun algoritmo, al momento, sia in grado di “selezionare/filtrare” in modo autonomo e senza conseguenze.
Facebook e YouTube, attraverso gli Standard della Community e la moderazione dei contenuti dimostrano, di fatto, di confrontarsi con i diritti degli utenti e la libertà d’espressione, dal momento che l’Intelligenza Artificiale non è sufficientemente avanzata per individuare le sfumature del linguaggio utilizzato, del registro discorsivo, delle differenze a seconda dei contesti culturali.
Sorge, dunque, spontaneo domandarsi se monitorare non significhi – in alcuni casi – “censurare” a priori, silenziare le voci critiche. Inoltre, c’è chi ritiene che, alla fine, i contenuti “scomodi” e pericolosi rimarranno, mentre sono destinati a sparire i diritti e le libertà degli individui. Il rischio è tale che 70 esperti di Internet, tra i più autorevoli al mondo, hanno inviato nel 2018 una lettera al Presidente del Parlamento Europeo denunciando il fatto che “la richiesta alle piattaforme digitali di condurre un filtraggio precedente, porta verso la trasformazione di Internet da una piattaforma aperta per condividere e innovare, a uno strumento per la sorveglianza e il controllo automatico degli utenti”.
Anche il fatto che Facebook e YouTube, ricorrendo all’Intelligenza Artificiale per la fattispecie, non abbiano rinunciato all’esame finale, “di appello” da parte dei “mediatori umani”, evidentemente non è bastato a convincere i paladini delle libertà democratiche senza sì e senza ma.
I social non sono piattaforme neutre
Ricordiamoci quanto affermato da Zuckerberg, in modo provocatorio, durante l’interrogatorio da parte dei senatori Usa in merito al caso di Cambridge Analytica e, precisamente: “I social non sono più piattaforme neutre e sono responsabili dei contenuti e saranno talmente infallibili che i contenuti leciti resteranno online indisturbati, e quelli illeciti non vedranno nemmeno la luce del monitor”. Si è passati, di fatto, da un approccio “reattivo” alla moderazione dei contenuti (in cui la piattaforma interviene solo a seguito di segnalazione) a un approccio “proattivo”. Ne consegue che stiamo consegnando alle piattaforme social la facoltà di eliminare contenuti sgraditi o illeciti, prima ancora che essi raggiungano gli utenti e, questo, grazie a sistemi di monitoraggio e di intervento sui contenuti che risultano essere del tutto indipendenti da ogni richiesta da parte degli utenti o titolari di diritti.
Al momento non esiste un algoritmo in grado di estirpare il male, la violenza e le varie tipologie di discriminazioni, né tanto meno esiste una macchina intelligente che sia in grado di riprodurre conversazioni articolate e razionali, salvo in futuro essere smentiti. Se ciò si verificasse, ci ritroveremmo in una società basata sul politicamente corretto, sul conformismo, assoggettati alla volontà dei “moderatori automatici”; più decisioni arbitrarie estrapolate dal contesto, meno trasparenza, più rapidità nella rimozione (che può comportare rimozioni errate), più censura.
Stiamo consegnando agli algoritmi la gestione di quello che è dicibile/visibile e indicibile/non visibile, che implica considerare misure atte a garantire più trasparenza, più informazioni sulle rimozioni umane e automatizzate, maggiori strumenti a disposizione degli utenti per fare appello alle decisioni delle piattaforme social.
Solo coniugando la rimozione automatica e i diritti umani saremo in grado in futuro di garantire una collaborazione tra intelligenza artificiale e intelligenza umana, sviluppando algoritmi più a “misura d’uomo” e non piattaforme digitali a “misura d’algoritmo”.