Un’ampia gamma di attori, spesso russi o iraniani sfrutta le piattaforme social per diffondere propaganda “inquinata”, incitamento all’odio e teorie della cospirazione, in occasione di eventi elettorali e non solo: gli utenti sono “inondati” di messaggi polarizzanti, commenti e “retorica” di troll coesi in uno sforzo comune volto a manipolare l’opinione pubblica.
E, inoltre, la disinformazione non è più una prerogativa esclusiva dei regimi impegnati a contrastare l’opposizione interna o le ingerenze di altri governi. Si diffonde e spazio in ogni settore: agenti stranieri, gruppi di interesse di parte e attori orientati al profitto aderiscono a numerose comunità con messaggi sensazionali, contenuti “clickbait” e campagne di influenza altamente politicizzate e polarizzanti. Il tutto approfittando delle piazze social impreparate a prevenire pratiche scorrette e dannose, prive di un contesto regolatorio pertinente e condiviso e di misure volte a garantire la trasparenza dei processi informativi.
Esaminiamo in che modo è cambiata la produzione e la fruizione, il business model e la struttura dei costi del bene informazione e le tecniche della disinformazione politica viste attraverso i documenti più influenti – il rapporto dell’Oxford Institute sul tema, lo Studio Cepa, il Rapporto Mueller e il White Paper “Potemkin Pages and Personas” – che consentono di comprendere il ruolo assunto dalle varie entità organizzative finanziate dalla Russia come anche dal servizio segreto militare russo GRU.
Le elezioni Usa 2020
Il prossimo banco di prova saranno le elezioni Usa del 2020: gli americani sono preparati all’intervento straniero?
Un documento del National Counterintelligence and Security Center, riporta che i tentativi stranieri di interferire con le elezioni non risentiranno della maxi-indagine del Russiagate se non per affinare ulteriormente le tecniche di diffusione della disinformazione, in particolare attuata tramite operazioni di hack-and-leak (viola e diffondi documenti riservati per discreditare una parte politica; sempre più spesso inquinandoli con documenti falsi da loro prodotti). Le minacce potrebbero, infatti, coinvolgere una gamma più ampia di attori stranieri e statali rispetto a quelli che si sono visti in passato, fino a includere nuove entità motivate ideologicamente e criminali informatici non solo balcanici in grado di mettere in atto sofisticare tecniche di persuasione informativa attraverso nuovi sensori e tecnologie di sorveglianza; operazioni di filiera e, indirettamente, investimenti diretti esteri, joint venture, fusioni e acquisizioni di imprese di fornitori correlati alle elezioni che potrebbero fornire a un avversario l’accesso a sistemi chiave, reti e informazioni.
Non ultimo l’uso strategico dei cosiddetti deepfake, ovvero una sintesi di immagini umane basata sull’intelligenza artificiale che viene utilizzata per combinare e sovrapporre immagini e video esistenti su immagini o video sorgente utilizzando una tecnica di machine learning chiamata ‘generative adversarial network‘.
L’Asse del Cyber’, Cina, Corea del Nord, Iran e Russia, costituisce il pericolo maggiore in ambito elettorale. Le offensive cyber dell’Iran, soprattutto dopo la chiusura di molti account falsi su piattaforme come Facebook e Twitter, Teheran dovrebbe destare grande sospetto e, infatti, Microsoft, con un report pubblicato ad ottobre, tenta di definire le prove di un attacco della Repubblica islamica alla prossima campagna presidenziale americana del 2020.
Manipolazione dei social: chi la usa e perché
Il Report dell’Oxford Internet Institute racconta di una vera e propria corsa al controllo dell’informazione on line: “The Global Disinformation Order: 2019 Global Inventory of Organized Social Media Manipulation”, scritto dal professor Philip Howard, direttore dell’Oxford Internet Institute (OII), e Samantha Bradshaw, ricercatore dell’OII, esamina in maniera capillare l’uso di algoritmi, automazione e big data per modellare la vita pubblica.
Ed è utile evidenziarne le conclusioni:
- La manipolazione dei social media organizzata è più che raddoppiata dal 2017, con 70 paesi che utilizzano la propaganda computazionale per manipolare l’opinione pubblica. In 45 democrazie, politici e partiti politici hanno utilizzato strumenti di propaganda computazionale accumulando falsi follower o diffondendo mezzi di informazione manipolati per ottenere il sostegno degli elettori.
- In 26 stati “autoritari”, gli enti governativi hanno utilizzato la propaganda computazionale come strumento di controllo delle informazioni per sopprimere l’opinione pubblica e la libertà di stampa, screditare le critiche e le voci di opposizione ed eliminare il dissenso politico.
- Le operazioni di influenza straniera, principalmente su Facebook e Twitter, sono state attribuite alle attività delle truppe informatiche in sette paesi: Cina, India, Iran, Pakistan, Russia, Arabia Saudita e Venezuela. Gli obiettivi cambiano a seconda del Paese “mandante” della campagna: può essere generare confusione e divisioni nell’elettorato per minare i processi democratici; sostenere tesi filo russe, filo iraniane, filo palestinesi in questioni geopolitiche nel rapporto con Usa e Regno Unito.
- La Cina è ora emersa come uno dei principali attori nell’ordine globale della disinformazione, utilizzando piattaforme di social media per colpire il pubblico internazionale con disinformazione, per dare un’immagine positiva delle attività del Governo cinese.
- 25 paesi stanno lavorando con aziende private o società di comunicazione strategica che offrono una propaganda computazionale come servizio. Facebook rimane la piattaforma di scelta per la manipolazione dei social media, con prove di campagne formalmente organizzate in 56 paesi.
Il rapporto, che sicuramente merita un’attenta lettura, esplorando gli strumenti e le tecniche della propaganda computazionale, incluso l’uso di account falsi – robot, umani, cyborg e account compromessi – per diffondere disinformazione, rileva inoltre che:
- L’87% dei paesi ha utilizzato account umani
- L’80% dei paesi ha utilizzato account bot
- L’11% dei paesi ha utilizzato account cyborg
- Il 7% dei paesi ha utilizzato account compromessi o rubati.
Di questi:
- 52 paesi hanno utilizzato disinformazione e manipolazione dei media per indurre in errore gli utenti
- 47 paesi hanno utilizzato troll sponsorizzati dallo stato per attaccare oppositori o attivisti politici nel 2019, rispetto a 27 paesi nel 2018
E’ un fatto che i vantaggi offerti oggi dalle tecnologie legate all’uso dei social network – algoritmi, automazione e big data – cambiano notevolmente la portata, l’ambito e la precisione del modo in cui le informazioni vengono trasmesse nell’era digitale.
Con facilità la sintassi si prende la sua rivincita sulla semantica: la struttura con cui si ordinano le informazioni e il modo in cui ciascuno assorbe il suo sapere sul mondo determina il successo di una notizia. Su questo Facebook, nel mondo dei social, ha praticamente un monopolio. Sempre più individui , per quanto incredibile possa apparire, non si informano se non attraverso i social, Facebook e Twitter in primis.
E certo, in tutto ciò, il quadro giuridico al momento esistente non appare più adatto allo scopo.
Post-verità e disinformazione
Alla fine del 2016, l’Oxford Dictionary ha designato il termine post-verità, “an adjective defined as ‘relating to or denoting circumstances in which objective facts are less influential in shaping public opinion than appeals to emotion and personal belief” come la parola dell’anno.
Il termine ‘post-verità’ individua un concetto più complesso della nozione di notizia falsa, in quanto rappresenta anche una manipolazione di una notizia vera, presentando in modo artefatto elementi fattuali veri assieme a suggestioni e manipolazioni che ne possono alterare il contenuto. Le distorsioni dell’informazione online, infatti, nelle molteplici forme che assumono, si inseriscono all’interno del mercato dell’informazione online come prodotti informativi, talora dando luogo a mercati paralleli, in cui vengono scambiati beni e servizi per la creazione, produzione e diffusione di contenuti fake.
Evidenziano, dunque, aspetti di natura economica che unitamente alle ovvie problematiche sociali e di tenuta democratica insite nella diffusione di notizie inquinate, rendono la disinformazione una questione di interesse pubblico fondamentale.
Dopo il referendum sulla Brexit nel Regno Unito e le elezioni presidenziali del 2016 negli Stati Uniti, gli studiosi di una vasta gamma di discipline si sono sempre più preoccupati della diffusione delle cosiddette notizie false sui social media. Ciò sebbene le notizie false non siano un fenomeno nuovo (per fare qualche esempio, se ne fece uso alla fine della Repubblica Romana durante la contesa al potere tra Ottaviano e Marco Aurelio dopo la morte di Giulio Cesare; durante la prima guerra mondiale quando il governo britannico usò la propaganda per mantenere la popolazione motivata contro la Germania; negli anni ’30 quando il partito nazista ricorreva ai mezzi di comunicazione tecnologici per consolidare il suo potere).
L’intuizione alla base della disinformazione rimane immutata nel tempo; cambiano il business model e la struttura dei costi del bene informazione, con effetti sulla qualità del prodotto informativo e sulle barriere all’ingresso nel settore. La digitalizzazione del prodotto informativo trasforma la notizia in un bene che può essere facilmente digitalizzato e riprodotto, distribuito e consumato anche in gruppo, spesso in modo gratuito, svincolato, pertanto, dal supporto fisico e dall’esigenza di stamparlo e recapitarlo materialmente al consumatore finale. Cambiano i modelli di produzione delle notizie con riferimento, in particolare, alla tempistica con la quale vengono creati i prodotti informativi e alla natura stessa dell’informazione tra notizia e intrattenimento. Il ridotto ciclo di produzione del bene informazione nel contesto digitale implica una contrazione del tempo dedicato alla verifica dei fatti e all’attendibilità delle fonti e al controllo della qualità dei contenuti diffusi.
L’informazione così abilmente elaborata in narrazioni ostili in un cyberspazio che William Gibson descriverebbe una sorta di “allucinazione consensuale” vissuta ogni giorno da miliardi di operatori in ogni nazione – diventa potente strumento a servizio della competizione politica ed economica. Narrazioni ostili prendono di mira sentimenti ed emozioni per toccare particolari vulnerabilità sociali. Nell’echo chamber del moderno spazio informativo, la diffusione della disinformazione è facile come un “mi piace”, un “tweet” o una “condivisione”.
Disinformazione social: stesse tattiche della guerra fredda, nuove tecnologie
Le tecniche della disinformazione politica viste attraverso i documenti più influenti consentono di comprendere il ruolo assunto dalle varie entità organizzative finanziate dalla Russia come anche dal servizio segreto militare russo GRU, nato dopo la Rivoluzione sovietica e sopravvissuto al crollo dell’URSS.
Lo Studio CEPA
Un interessante studio del Centro per le Analisi Politiche Europee, un think tank con sede a Washington che si occupa di Europa occidentale e Russia, di cui uno dei due autori è Donald N. Jensen – resident fellow al Center for Transatlantic Relations alla Nitze School of International Studies della Johns Hopkins University, e commentatore per Cnbc, Fox Business e Voa Russian Service e l’altro è Peter B. Doran –vicepresidente del Cepa; collaboratore di Foreign Policy, Defense News, National Review e American Spectator; commentatore per Fox News, Wall Street Journal e Newsweek, riporta una descrizione delle tecniche più comunemente utilizzate dal Cremlino per diffondere false storie e disinformazione. Al di là della posizione chiaramente di parte del CEPA, le indicazioni contenute nel documento pubblicato possono validamente contribuire alla comprensione del ruolo dei social media nella condivisione e diffusione delle dis-informazioni.
Il rapporto Mueller
Al momento della pubblicazione di questa risorsa online da parte della Casa Bianca, il comitato giudiziario della Camera stava conducendo delle indagini che ora includono anche l’esame dell’impeachment del presidente Donald J. Trump.
Il “rapporto Mueller”, ovvero il documento conclusivo dell’indagine del procuratore speciale Robert Mueller sulle interferenze della Russia nella campagna elettorale statunitense del 2016 non è stato diffuso in versione integrale per esigenze investigative.
Le azioni e gli eventi descritti nel Rapporto si basano su prove che l’Ufficio del Consiglio speciale ha ritenuto sostanziali e credibili e coinvolgono tre fronti:
- Il ruolo dei social media e l’operazione di infiltrazione guidata da Internet Research Agency (IRA);
- l’operazione di cyber hacking condotta dall’intelligence militare russa (GRU); e
- L’operazione di infiltrazione della campagna di Trump.
L’analisi delle“misure attive” ovvero le operazioni condotte da servizi di sicurezza russi volte a influenzare il corso degli affari internazionali” fornisce un quadro interessante utile per comprendere sia le tecniche e le modalità operative che il ruolo “svolto” dalle entità russe, finanziate a quanto pare dall’imprenditore russo Yevgeniy Viktorovich Prigozhin, (che avrebbe legami con il presidente russo Vladimir Putin nel contesto di un più ampio disegno noto come “Progetto Lakhta”) individuate nell’ Internet Research Agency, (IRA) la nota troll farm di S. Pietroburgo, la Concord Management and Consulting (LLC) e il Concord Catering.
Allo stesso modo le sofisticate operazioni di hacking e dumping volte a vanificare la candidatura di Hilary Clinton e influenzare il risultato delle elezioni presidenziali, delineano responsabilità ben precise in capo all’ organizzazione di intelligenze militare russa GRU e contribuiscono a svelare come l’operazione russa si sia evoluta nel tempo, quanto successo ha avuto nel colpire e ingannare gli americani e le motivazioni sottese all’agire del Cremlino.
- Secondo la testimonianza al Congresso del consigliere generale di Facebook Colin Stretch, l’IRA avrebbe acquistato 3.500 annunci pubblicitari su Facebook e i post di account controllati dall’IRA avrebbero raggiunto almeno 29 milioni di persone negli Stati Uniti e forse fino a 126 milioni di persone nel mondo.
- L’IRA era anche attiva su Twitter. I dipendenti dell’IRA avrebbero gestito account individuali che pubblicavano contenuti originali e comunicavano direttamente con gli utenti Twitter degli Stati Uniti. Alcuni degli account avrebbero guadagnato decine di migliaia di follower e i loro tweet avrebbero ricevuto un’attenzione significativa dagli utenti di Twitter, nonché dai media statunitensi che, infatti, citavano i tweet dell’IRA. Numerose persone di alto profilo negli Stati Uniti, tra cui l’ex ambasciatore degli Stati Uniti in Russia, Michael McFaul, Sean Hannity e Michael Flynn Jr., hanno ritwittato o risposto ai contenuti dell’IRA.
- L’IRA avrebbe inoltre svolto attività botnet sempre su Twitter. Secondo Twitter all’incirca 1,4 milioni di persone potevano essere state in contatto con account controllati dall’IRA e, a gennaio 2018, sempre Twitter ha identificato pubblicamente 3.814 account collegati all’IRA. All’epoca le istruzioni per l’IRA recitavano: “Idea principale: sfruttare ogni opportunità per criticare Hillary [Clinton] e il resto ( Sanders e Trump – li sosteniamo)” (p. 25 del Report).
- Le tecniche dell’IRA non si limitavano al cyberspazio e al microtargeting propagandistico orientandosi dall’influenza online all’azione offline. Gli agenti russi avrebbero cioè indotto gli americani a portarsi nelle strade. Come rivela il rapporto di Mueller, gli agenti dell’IRA avrebbero usato account artatamente costruiti sui social media per creare credibilità, inviando messaggi diretti ai follower incoraggiandoli a partecipare agli eventi. Avrebbero anche sollecitato l’aiuto di inconsapevoli cittadini statunitensi nell’organizzazione e gestione degli eventi, promuovendo in seguito gli eventi sui social media con immagini e video. Alcuni di questi eventi hanno attirato centinaia di sostenitori. Una serie di manifestazioni in Florida ha attirato l’attenzione anche della campagna Trump, che ha promosso uno di loro sui social media.
- Di sicuro rilievo la tattica degli attacchi informatici guidati dal GRU. Una sofisticata e riuscita campagna di spear phishing, in base alla quale i funzionari del GRU hanno ottenuto l’accesso a numerosi account e-mail di dipendenti e volontari della campagna Clinton, compresi quelli del presidente della campagna John Podesta. Il GRU – utilizzando le credenziali rubate da un dipendente DCCC durante un’operazione di spear phishing – avrebbe ottenuto l’accesso alla rete di computer DCCC, che includeva ulteriori diversi computer DCCC. Da lì, gli ufficiali GRU sono stati in grado di accedere a più di 30 computer sulla rete DNC, inclusi il server di posta DNC e il file server. Una volta stabilito l’accesso, i funzionari GRU hanno installato malware nei computer interessati, consentendo loro di registrare le sequenze di tasti e quindi di scoprire password, comunicazioni interne e informazioni personali sensibili; fare screenshot; e raccogliere altri dati. Questi dati sono stati quindi trasferiti dai computer DNC e DCCC ai computer controllati dal GRU noleggiati negli Stati Uniti. Il resto è noto: dopo l’hacking è arrivato il leak. La tecnica è nota come hack-and-leak. I documenti sono stati inizialmente pubblicati sul sito Web creato da GRU “DCLeaks” ma per diffondere documenti e comunicare con i giornalisti sono stati utilizzati anche un account Facebook DCLeaks, un account Twitter e un account Gmail.
Dopo che il DNC aveva annunciato pubblicamente la violazione delle sue reti – i funzionari del GRU hanno creato un blog WordPress usando noto il personaggio di Guccifer 2.0. puntando com ciò ai giornalisti e ai media allineati che potevano svolgere un ruolo chiave nell’amplificare le informazioni distribuite. I notiziari hanno amplificato la disinformazione russa citando i tweet dell’IRA come fonti di opinione pubblica. Tutti tranne uno dei 33 principali notiziari americani hanno utilizzato le informazioni degli account Twitter in seguito rivelati controllati dall’IRA.
White Paper “Potemkin Pages and Personas”
Su richiesta della Commissione di intelligence del Senato degli Stati Uniti, gli esperti di Stanford nel rapporto intitolato “Potemkin Pages & Personas: Valutare le operazioni online del GRU dal 2014 al 2019”, hanno analizzato un set di dati costituito da post sui social media forniti al comitato da Facebook poiché attribuiti dalla stessa Facebook, alla Direzione Generale dello Stato Maggiore delle Forze armate della Federazione Russa GRU.
Il Rapporto che ci consente un’ulteriore consapevolezza sulle tattiche e sui metodi del GRU, che ci presenta una serie di utili dati statistici esplicativi della portata delle attività dell’intelligence russa, ha soprattutto il pregio di rendere evidente il ruolo fondamentale quanto strumentale (e strumentalizzato) svolto dall’ecosistema mediatico dei mezzi di diffusione delle informazioni nel suo complesso.
L’analisi si concentra sulle attività del GRU e riporta un elenco delle specifiche operazioni effettuate dai servizi segreti russi che includono:
- la creazione di profili fittizi che pubblicano notizie false o altri contenuti filo-russi,
- attività di disinformazione rivolte agli Stati Uniti o all’Ucraina,
- nonché operazioni di hacking e furto di informazioni destinati alla successiva pubblicazione.
E compaiono diversi takeaway:
- “Se opportunamente coordinato, il potenziale di capacità combinato tra il GRU (pirateria informatica; riciclaggio di materiale illustrativo) e l’IRA (influenza sociale sovversiva; propaganda memetica) potrebbe comportare operazioni di informazione di notevole impatto”, afferma il rapporto.
Secondo gli autori del documento, l’attività del GRU in tale contesto è ampiamente in linea con la formula tattica consolidata e nota come riciclaggio di narrativa o riciclaggio di informazioni. E’ la tecnica definita di “narrative laundering” – cioè una volta creata una narrativa/storia da una entità statale si inizia a fare un’operazione di riciclaggio per ripulirla dalle sue origini e farla sembrare più indipendente, forti del coinvolgimento più o meno consapevole dell’editoria più allineata, fino a bucare il mainstream. Si inizia da una rete di think tank, siti affiliati e profili/autori finti.. e si prosegue con una “catena di citazioni” al solo scopo di rendere credibile il messaggio dato agli utenti. Il cd “boosterism”.
Gli esempi presentati nel rapporto mostrano chiaramente come sono cambiate le strategie dei servizi insieme allo sviluppo dell’era digitale, adattando le operazioni messe in atto ai conseguimenti tecnologici successivi.
- L’hacking e le conseguenti campagne di diffusione dei documenti caratterizzano in maniera preponderante le azioni del GRU e sono note come hack-and-leak. Queste sono state descritte in dettaglio nel Rapporto Mueller ed hanno avuto un impatto particolarmente notevole sulle elezioni americane del 2016.
Ma il GRU, secondo il white paper avrebbe condotto anche altre operazioni di hack-and-leak tra il 2014 e il 2019.
La caratteristica saliente di questa tattica è la necessità, per una seconda parte (come Wikileaks, ad esempio), di diffondere i risultati dell’operazione hack-and-leak: non sarebbe altrimenti efficace provocare la perdita di dati senza avere un vasto pubblico a cui “sottoporli”.
Se infatti i tentativi del GRU di veicolare “i dati violati” attraverso i propri account sui social media si sono rivelati generalmente inefficaci o poco significativi, gli stessi hanno, invece, avuto successo quando si sono orientati al settore dei media indipendenti ed allineati: i post di Facebook di Fancy Bear sul suo attacco hack-and-leak alla World Anti-Doping Agency (WADA), ne sono un perfetto esempio.
E pare non mancheranno altri esempi nel contesto delle prossime Olimpiadi Tokyo 2020.
I messaggi diretti ai giornalisti americani, trasmessi attraverso un personaggio fittizio di Twitter chiamato Guccifer 2.0, hanno provocato un considerevole impatto mediatico: Il post nella pagina “DCLeaks “Controlla i documenti riservati trapelati dalla presidenza di Hillary Clinton …” con tanto di link ha generato solo 11 “mi piace”, 17 condivisioni e zero commenti. Ma, lo stesso messaggio diretto ai maggiori media americani ha portato ad un successo ben diverso che peraltro ha costituito solo l’anticamera delle successive mosse di WikiLeaks che ha pubblicato i documenti e twittato il link ai suoi 3,2 milioni di follower.
- La strategia GRU si serve della creazione di think tank e siti Web con “notizie alternative”.
Come indicato nel rapporto “questi think tank e siti mediatici personali o di identità inventate, vengono mantenuti per un certo periodo di tempo e attivati su molte altre piattaforme, cercando di creare l’impressione che il profilo fosse completamente vero.”
Dunque, parliamo di organizzazioni di copertura piene di personaggi finti, che producono contenuti per sostenere l’organizzazione per poi sfruttare quell’affiliazione e piazzare storie ai media prescelti. Tali entità, questi media indipendenti offrono appunto un grado di autenticità fortemente abilitante – gli autori sono reali e le organizzazioni reggono ad una prima verifica.
L’Inside Syria Media Center (una delle organizzazioni di copertura individuate dal report, ndr) e “Alice Donovan” (una di queste fake personas, ndr) sono tra gli esempio di questo processo.
L’account Donovan rientra non a caso tra quelli riconducibili alle interferenza russe nelle indagini condotte dal consigliere speciale Robert Mueller.
Altri personaggi falsi come Donovan, sono “Jonivan Jones” e “Sonia Mangal”
Il sito web di NBene Group è un think tank attribuito al GRU.
Un articolo del gruppo NBene sull’annessione della Crimea è stato citato in un articolo di una rivista di diritto militare americano.
Ma il miglior esempio di questo processo riguarda le attività dell’Inside Syria Media Center (una delle organizzazioni di copertura individuate dal report).
Strategie ben distinte da quella dell’IRA, che come emerso nello specifico dal Rapporto Muller opera principalmente con un approccio di microtargeting psicologico di tipo “memetico”(attraverso meme) mirato al coinvolgimento diretto degli utenti sui social media con conseguente diffusione virale dei specifici contenuti.
Mentre le macchinazioni elettorali online della Russia venivano svelate, Renee Di Resta, l’autore principale del White Paper, e la sua organizzazione New Knowledge di cui Jonathon Morgan è il direttore generale, pare stessero provando tattiche similmente ingannevoli nella gara per il Senato dell’Alabama.
E la Commissione elettorale federale pare debba ancora determinare quale ruolo abbia avuto il gruppo DiResta – New Knowledge – nel trollare gli elettori dell’Alabama.
“Il progetto di ricerca aveva lo scopo di aiutarci a capire come funzionava questo tipo di campagne”, ha affermato Morgan. “Abbiamo pensato che fosse utile lavorare nel contesto di una vera elezione, ma progettarlo per non avere quasi alcun impatto”.
E’ probabile che l’esperimento, realizzato su Facebook e Twitter, fosse troppo piccolo per avere un effetto significativo sulla gara. Ma ciò stimola ulteriori riflessioni.
Conclusioni
“Riconoscere e comprendere la minaccia è importante, ma è solo metà della battaglia”.
Una corretta informazione è indispensabile per la salvaguardia dei valori alla base dello Stato Democratico.
L’ambito dei social media si configura come la nuova piazza pubblica contemporanea. Una piazza, tuttavia ancora oggi, non adeguata a prevenire pratiche scorrette e dannose per le persone e per la società; priva di un contesto regolatorio pertinente e condiviso; priva di misure volte a garantire la trasparenza dei processi informativi.
Le informazioni inquinate, sono il frutto di processi di microtargeting abilmente condotti sulla base di analisi psicografiche alimentate da dati raccolti da potenti società del web marketing che operano nell’anarchia più totale con buona pace delle normative in vigore.
Sempre di più i grandi temi del nostro tempo, dalle migrazioni, alla salute pubblica, ai temi di natura ambientale, scientifica, alla sicurezza pubblica, temi che necessitano di competenze e capacità di articolazione espositiva – “sono ostaggio di giocatori sconosciuti, lasciati a briglie sciolte sui social media”.
Un “tweet”, non importa quanto tendenzioso o scorretto, è in grado di condizionare le informazioni della giornata trovando terreno fertile anche sugli altri media attraverso la tecnica del ping pong mediatico.
Promuovere un’informazione di qualità e contrastarne “il disturbo” potrebbe essere possibile solo coordinando sapientemente le energie a livello globale. Educare alla consapevolezza, promuovere ed incentivare soluzioni tecniche (limitare l’accesso a certe informazioni) e di mercato (rendere più conveniente fare buona informazione).
Sensibilizzare istituendo meccanismi specifici per lo scambio di informazioni tra Stati membri e coordinare le azioni per realizzare comunicazioni strategiche; sviluppare la resilienza affrontando potenziali settori strategici e critici come la sicurezza informatica, le infrastrutture critiche (energia, trasporti, spazio), la protezione del sistema finanziario, la protezione della salute pubblica e sostenendo gli sforzi per contrastare l’estremismo violento e la radicalizzazione; intensificare la cooperazione in uno sforzo congiunto per contrastare le minacce ibride, nel rispetto dei principi di inclusività e autonomia del processo decisionale di ciascuna organizzazione.
La coalizione contro-disinformativa, dovrebbe coinvolgere proattivamente diversi attori governativi e non governativi, le piattaforme digitali, i media tradizionali, i fornitori di servizi Internet (ISP), le società civili, i gruppi etici.
Molti esperti di tecnologia, “Sherlock digitali” abili nell’identificare i i segnali della disinformazione (come l’Ucraina StopFake, Bellingcat, il Digital Forensic Research Lab dell’Atlantic Council, Hamilton 68 di Alliance for Security Democracy Disinfo Lab tra gli altri) si sono dimostrati preziosi alleati nell’identificazione delle attività di disinformazione e spesso in tempo reale.
Le informazioni travolte dalle opinioni: il ruolo dei giornali
I “media” ai quali compete un livello di responsabilità conseguentemente “amplificato” si trovano a dover operare su un fronte fluido in cui le informazioni rischiano di essere travolte dalle opinioni, i dati concreti dalle voci incontrollate, le notizie verificate dalle menzogne.
Secondo Real Clear Politics, un sito che si occupa di raggruppare dati reali e fatti – in particolare sulla politica americana, soltanto il 4 per cento delle affermazioni di Trump nella campagna elettorale del 2016 corrispondevano a verità, contro un 19 per cento di “prevalenti falsità”, il 34 di bugie e il 17 di “pants on fire”, massimo grado di falsità: Kurt Cobain, si “narrava” tramite meme immediati, immagini e qualche parola con font immediati, avesse previsto l’elezione di Trump. Kurt era sicuramente geniale, quando pizzicava le corde della sua “Fender Mustang” ma, sono certa non abbia mai inteso, nel pur breve periodo in cui ci ha concesso il piacere esclusivo dell’ascolto delle sue composizioni, riferirsi a Trump.
In questo quadro, un ruolo della stampa, sempre più difficile ma per gli stessi motivi sempre più necessario, è certo quello di aiutare a fare chiarezza tra la verità e le sue distorsioni.
.
.