La disponibilità di alcuni giganti della Rete, tra i quali Facebook, a contrastare le fake news attraverso l’utilizzo di reti di “verificatori” ha dato risultati finora parziali, sia per la vastità dei contenuti da controllare, sia perché nuovi siti di fake news nascono e scompaiono in continuazione, oppure modificano url e indirizzi per confondere gli utenti.
Ultime evidenze in questo senso arrivano da un rapporto di Snopes, tra i più noti fact checker: ha denunciato l’inefficacia delle misure di Facebook e proposta qualche soluzione.
E’ solo un esempio. La disinformazione online è un fenomeno subdolo e dalle diverse e complesse implicazioni e per contrastarlo serve un impegno corale, che veda impegnati non solo i giganti del web, ma anche le istituzioni e i cittadini.
Regole dell’informazione e responsabilità dei giganti del web
Questo perché è difficile stabilire le regole e le responsabilità dell’informazione, così come distinguere una notizia vera da quella falsa (fake news) e come intercettare quei contenuti che violano le regole della “decenza”, i.e. contenuti pornografici o pedofili, contenuti di incitamento all’odio e al suprematismo bianco.
Negli Stati Uniti si sta dibattendo molto sulla responsabilità dei giganti della Rete in relazione ad attività di facilitazione, supporto di traffico sessuale, incitamento all’odio ed al suprematismo bianco, in deroga alla Sezione 230 del Communications Decency Act, che prevede forme di esclusione di responsabilità civile derivanti da azioni commesse dagli utenti.
La Sezione 230 del Communications Decency Act del 1996, di fatto, è stata definita come la legge più importante per la tutela della libera parola in Internet, ma con l’approvazione del Fosta (Fight Online Sex Trafficking Act) – una legge ideata dal senatore dell’Ohio Rob Portman per combattere il traffico sessuale online – lo scorso marzo 2018 il governo americano ha di fatto sospeso la sezione 230 del Communication Decency Act, il cosiddetto “scudo legale“, che prevedeva che le holding dei siti internet non fossero responsabili di quello che i vari utenti caricano sugli stessi siti. Non dimentichiamoci che, se da un lato tale legge proteggeva la libertà di espressione in internet, dall’altro lato si preoccupava di stimolare l’autocontrollo dei giganti della rete sui contenuti.
Misure e regolamentazioni in atto
Nell’ambito della dialettica di responsabilità e garanzie per i contenuti che appaiono in Internet, i giganti della Rete sono costretti ad attivare meccanismi per ovviare alla “anarchia” dei contenuti e delle informazioni, per contrastare la disinformazione oltre che per scongiurare il rischio di punibilità per chi violi i diritti delle persone. Ricordiamoci anche una sentenza del 2013 della Corte Europea dei Diritti dell’Uomo che ha stabilito che “è giustificato e non viola la libertà d’espressione” multare un sito d’informazione per non aver censurato un contenuto offensivo anonimo, in quanto i gestori del sito sono gli unici che possono impedire o cancellare i contenuti offensivi, cosa che non può essere fatta dagli utenti né dalla parte offesa.
Stiamo assistendo alla cosiddetta disinformazione on-line a livello globale. A tal proposito gli organismi normativi europei si stanno sempre più dedicando all’elaborazione di misure atte a limitarne la diffusione e a garantire la corretta gestione dell’informazione, cruciale per la salvaguardia della democrazia e per una libertà d’informazione.
Un gruppo di esperti di alto livello (High-Level Expert Group – HLG) incaricato dalla Commissione Europea, ha prodotto nel marzo 2018 un rapporto su fake news e disinformazione. Tale rapporto contiene anche un codice per le piattaforme on-line e social network in cui si raccomanda la trasparenza degli algoritmi che selezionano le notizie, l’adozione di misure efficaci atte a migliorare la visibilità e l’accesso a notizie affidabili. Inoltre, nelle linee guida contenute in tale rapporto, è stata sottolineata l’importanza di attuare una politica di alfabetizzazione digitale/mediatica per contrastare la disinformazione e sviluppare, in questo modo, strumenti che permettano agli utenti e agli addetti ai lavori di contrastare la disinformazione e contestualmente sostenere la diversità e la sostenibilità dei mezzi di informazione digitale.
Ne consegue che i giganti della Rete, tra cui Facebook, hanno deciso di combattere seriamente la disinformazione attraverso la rimozione degli account falsi e la promozione di campagne di alfabetizzazione mediatica.
In particolare, Facebook – nel tentativo di recuperare la propria credibilità dopo lo scandalo di Cambridge Analytica – ha messo in atto un programma che prevede la collaborazione di reti di fact-checker. Tale programma si basa su una strategia ben definita atta a: diffondere il programma di fact-checking a sempre più nuovi Paesi al di fuori del territorio statunitense; comprendere foto e video come oggetto delle analisi dei fact-checker; impiegare nuove tecniche di fact-checking, tra cui l’individuazione dei duplicati e l’utilizzo di “Claim Review“; intraprendere azioni mirate contro i violatori recidivi delle policy di Facebook; stabilire collaborazioni con il mondo accademico per migliorare la misurazione e la trasparenza delle informazioni.
Tutto funziona come annunciato?
Secondo quanto riportato da alcuni autorevoli quotidiani americani diversi fact-checker Usa hanno abbandonato Facebook, tra questi Snopes (uno dei fact-checker online di più vecchia data).
Di fatto Snopes contesta a Facebook di non condividere i dati utili a capire l’impatto del suo lavoro e la sensazione di essere stato utilizzato per “ripulire” l’immagine del colosso della rete dopo le elezioni presidenziali statunitensi del 2016, fortemente caratterizzate dalla circolazione di fake news.
Sarebbe interessante capire come viene effettivamente svolta l’attività di fact-checking e se l’impiego di machine learning per scovare le cosiddette “bufale” avvenga sempre automaticamente oppure ci sia un “occhio manuale” e di riguardo per gli inserzionisti.
Facebook afferma che l’attività di fact-checking procede con successo, ma attualmente non sono disponibili i dati a riguardo.
Interessante la pubblicazione di un report, contenente anche raccomandazioni rivolte a Facebook, da parte di Full Fact, altro fact-checker che collabora con il colosso.
Full Fact, al fine di migliorare ulteriormente la condivisione di dati con gli stessi fact-checker, raccomanda a Facebook di essere più trasparente e considerare la possibilità di estendere il programma di fact-checking anche ad altre piattaforme, incluso Instagram in modo da meglio valutare i contenuti e capire l’impatto dell’attività svolta.
Inoltre viene evidenziata la necessità di sviluppare ulteriormente il programma sulla base dei feedback ricevuti unitamente a modificare la tipologia di classificazione e di come rendere più efficiente il programma.
Tra le raccomandazioni rivolte al colosso figurano:
- l’implementazione di strumenti più efficaci per l’identificazione di contenuti falsi e dannosi;
- l’estensione dell’attività di fact-checking ad Instagram;
- la diminuzione della durata di permanenza delle fake news in rete (permanenza che dovrebbe essere meglio contrastata attraverso il potenziamento del volume dei contenuti e la velocità di risposta);
- il coinvolgimento anche dei vari governi per l’accesso a informazioni pubbliche autorevoli su argomenti riguardanti la sicurezza e la salute pubblica, la cui erronea divulgazione, se non accuratamente gestita, può causare danni di varia natura;
- l’inserimento di ulteriori campi di classificazione delle “news/post” quali “indicare maggiori informazioni relative al contesto” oppure campi che permettano di classificare un post come “umoristico” dato che si fa riferimento solo a post classificati come “satirici” o “scherzosi” oltre all’inserimento del campo “news infondata”;
- prevedere la classificazione di reclami che non possono essere supportati da prove ma nel contempo non si possono classificare come “falsi” , utilizzando la classificazione “mixture”(miscellanea), rimandando l’onere della prova a chi ha fatto reclamo;
- redazione di linee guida atte a permettere l’identificazione di diversi reclami riferiti ad uno stesso post; rendere trasparente, ove il caso, l’utilizzo programmi machine learning per la attività di fact-checking.
Conclusioni
Sappiamo quanto sia importante – a fronte del dilagare dell’utilizzo di Internet e del carattere ubiquo, “deterritorializzato” che lo caratterizza – la regolamentazione della gestione dei contenuti. Si rendono necessari strumenti adeguati per gestire il “mare magnum” delle informazioni che vengono diffuse nel modo potenzialmente illimitato di questo grande “contenitore del sapere umano”, quale oggi è internet.
La velocità del contesto in cui ci troviamo ad operare, la rapidità dell’evoluzione dell’innovazione tecnologica, mette continuamente in discussione i diritti e i doveri di tutela ed implica la continua rielaborazione di principi, normative ed interventi che impattano sulla nostra società e sui mercati oltre che sui codici normativi e sulle direttive nazionali ed internazionali.
Assistiamo al faticoso processo di democratizzazione dell’accesso alle tecnologie che comporta quotidiane sfide sia per i cittadini sia per le imprese. L’economia immateriale attua cambiamenti radicali, ma non dobbiamo dimenticare che, parallelamente, bisogna continuare a salvaguardare i diritti di privacy, di gestione dei dati, della proprietà intellettuale, di corretta informazione e di salvaguardia di un mercato libero e competitivo.
Ne consegue che conoscenza, competenze, dati chiari e attendibili siano fondamentali sia per la democrazia liberale, sia per lo sviluppo economico equilibrato e sostenibile, sia per contrastare chiusure, protezionismo e sovranismi.
Inoltre la quantità e velocità delle notizie, la frammentarietà dei contenuti e la loro “viralità” nella rete favoriscono un consumo superficiale, disattento e decontestualizzato delle notizie, accrescendo così il rischio di disinformazione.
Dobbiamo poi essere consapevoli che i sistemi di verifica delle fake news, automatizzati e non, possono celare insidie quali il rischio di ledere il principio della libertà di espressione ed attuare forme di censura.
La disinformazione è, indubbiamente, un fenomeno subdolo e complesso, con notevoli implicazioni deontologiche professionali anche per quanto riguarda i fact-checker, rendendo difficile distinguere falsità, satira e libera opinione, senza cadere nella soggettività. Siamo sicuri della obiettività dei fact-checker nel catalogare una notizia come falsa? Quali criteri e quali certezze ci vengono offerti? Possiamo davvero confidare sull’affidabilità dei programmi di fact-checking, siano essi attuati da persone o da programmi automatizzati? Siamo sicuri che i Giganti della Rete mettano a disposizione di questi “verificatori” tutti i dati suscettibili? (vedi quanto rivelato dalla stampa americana).
Indubbiamente gli interventi regolatori delle istituzioni e la denuncia pubblica delle fake news, a supporto di questi programmi di verifica, sono determinanti e contribuiscono a fare luce sul mare magnum dell’informazione, ma saranno sufficienti per sconfiggere la disinformazione e i “complotti”?
Noi tutti dobbiamo prendere consapevolezza della diversità del contesto di Internet rispetto a quello della televisione e dei giornali. Gli utenti devono essere maggiormente vigili e “critici” per identificare le fake news e saranno necessarie sempre più regole, algoritmi e fact-checking.
Non dimentichiamoci che la disinformazione fa leva su interlocutori predisposti a credere al messaggio loro trasmesso. Ognuno di noi, la nostra consapevolezza dei rischi e le nostre capacità critiche sono centrali e solo se conosceremo sempre più il funzionamento del web e dei social, sia in termini di loro uso corretto sia in termini dei lati oscuri e delle insidie che essi comportano, maggiormente sarà garantita la consapevolezza e la possibilità di controllare reazioni e fonti.