Lo Strategic Communications Centre of Excellence Nato (o Nato Stratcom) ha recentemente pubblicato un report dal titolo “Trends And Developments in the Malicious Use of Social Media” in cui viene offerta una panoramica sui pericoli derivanti dalle piattaforme social a livello globale e le strategie su cui fare perno per rafforzare la cybersecurity. Sono sette i principali utilizzi malevoli dei social media individuati nel documento, anche se le più rilevanti minacce sono riconducibili a tre categorie: pericolo di elezioni falsate, utilizzo di deep fake e di altre tecnologie per creare disinformazione, pericolo Russia. Approfondiamo lo scenario e i suggerimenti indicati.
Social media, la Russia pericolo numero uno
In particolare, la paura del “pericolo russo”, è un tema che ricorre costantemente nel Report. La Russia è vista come la madre di tutte le minacce provenienti dal web e questo, a parere di chi scrive, è probabilmente sintomo della forte influenza statunitense nella stesura del documento. Gli USA infatti, come noto, a seguito di quanto emerso nell’ambito delle indagini su Cambridge Analytica, prima, e su Brexit ed elezioni 2016, poi, ritengono che la Russia abbia svolto un ruolo fondamentale nell’ondata di fake news subita dal popolo americano, motivo per cui deve essere vista come un pericolo da osservare e contenere.
Sia chiaro, non che la Russia sia da considerare innocua ma, oggettivamente parlando, è da ritenere che non sia più pericolosa di ogni altra grande super potenza del mondo, compresi gli USA. L’impressione, leggendo questo Report, è che sia in atto una profonda crisi nei rapporti USA/Russia. Una sorta di guerra fredda se possibile ancora più asettica di quella che ha caratterizzato gli anni ’70-’80. Una guerra di cui non parlano molto i giornali e che si combatte su internet a suon di like e di cyber attacchi.
Di fatto, su sette capitoli, almeno 4 sono dedicati alla Russia ed alla sua presunta azione di disinformazione perpetuata nei confronti dell’Occidente.
Stratcom NATO a tal riguardo si domanda se tali attività sui social possano considerarsi come una serie di azioni scollegate tra loro oppure se debba ritenersi parte di un disegno più ampio. Non viene fornita una risposta a riguardo, vengono però illustrati i tratti delle principali condotte pericolose le quali, non sfuggirà ad un lettore attento, rimandano implicitamente o esplicitamente all’utilizzo che parrebbe aver fatto la Russia di tali media nei periodi precedenti le ultime elezioni americane.
Cybersecurity e social, la minaccia per le elezioni
Fra i rischi maggiori provenienti dai social media la cosiddetta “impersonation“, la condotta di chi finge di essere un altro soggetto (esistente o meno) per finalità fraudolente. Può concretizzarsi nella creazione di profili fake, ma anche nell’utilizzo di tecnologie, come bot e deep fake, capaci di far sembrare che una determinata persona abbia compiuto una definita azione o abbia pronunciato una specifica frase.
In tale categoria la NATO riconduce anche la creazione di profili apparentemente riconducibili a società o a testate, capaci di indurre il lettore in confusione di modo da far sembrare, ad esempio, che una testata abbia pubblicato un articolo in cui discredita pesantemente un politico. In Italia, ad esempio, è noto il caso del “fattoquodiDAINO”, sito di news volutamente fake, capace di provocare confusione con quelle del più noto “fattoquodiDIANO”. Questo induceva in errore il lettore il quale, sulla scorta della popolarità della testata originale, tendeva a credere alle fake news pubblicate dal profilo del sito basato su una “impersonation”.
L’”imitazione” fraudolenta, come visto, può avvenire mediante l’apertura di profili falsi, ma non solo. Secondo il documento, non esiste un unico metodo di impersonation: si tratta invece di condotte in continuo sviluppo, così da permettere di adattarsi alle contromisure che di volta in volta vengono adottate dai governi e dalle piattaforme per fronteggiare questi veri e propri attacchi.
A tal riguardo, la presunta manipolazione dell’opinione pubblica da parte dei troll russi nelle elezioni USA è stato un importante segnale che ha fatto aprire gli occhi sulla reale scala del problema. Bot e troll sarebbero stati usati per amplificare una certa visione dei fatti e per manipolare le informazioni di modo da far sembrare un certo movimento politico più popolare di quanto non fosse davvero. In questo modo sarebbero stati zittiti i dissidenti e sarebbe stato costruito un consenso pubblico del tutto fondato su notizie e profili falsi. Una manipolazione vera e propria della realtà.
Le piattaforme social stanno cercando una soluzione a questo problema, ma ogni tentativo viene vanificato da nuovi strumenti creati appositamente per aggirare i divieti. Ad oggi, i bot più semplici possono essere facilmente isolati e neutralizzati ma i bot avanzati no.
Questi programmi riescono difatti ad apparire come persone reali, evitando così ogni meccanismo di restrizione. Come ci riescono? Creando dei profili attivi, non meramente di facciata, che interagiscono con umani ed altri bot e che portano avanti attività capaci di farli apparire come soggetti reali agli occhi dei meccanismi di ricerca bot.
Social e deep fake: il caso Renzi
Cosa accadrebbe se la notte prima delle elezioni, uno dei principali candidati pubblicasse un video su internet in cui ammettesse di aver preso tangenti? E’ facile pensare che, in un simile scenario, il video si diffonderebbe molto velocemente facendo crollare la popolarità del candidato. Il giorno dopo, il video potrebbe essere tolto, il candidato potrebbe dichiarare che è stata tutta una macchinazione contro di lui, ma le elezioni, a quel punto, sarebbero già state irrimediabilmente compromesse.
Questo scenario, illustrato sapientemente nel report, dimostra la pericolosità della disinformazione, specie alla luce di tecnologie come quella deep fake.
Gli effetti di un video deep fake persistono anche dopo la smentita e ciò in quanto la smentita stessa potrebbe non raggiungere tutti coloro che hanno visto il video fake, oppure potrebbe arrivare troppo tardi, quando ormai (come nel caso ipotizzato nel report) gli effetti sono irreversibili.
Un primo esperimento in Italia è già stato fatto. E’ Striscia la Notizia, programma delle reti Mediaset, ad aver il primato di primo video deep fake mostrato su una TV generalista. In questo video è stato mostrato Matteo Renzi mentre attacca altri politici italiani. In un secondo momento è stato detto che si trattava di uno scherzo, ma se questo video fosse stato mostrato il giorno delle elezioni che effetti avrebbe avuto? Siamo sicuri che chiunque sarebbe stato in grado di capire che quel politico era in realtà il frutto di un’applicazione tecnologica avanzata?
Si tratta evidentemente di strumenti molto pericolosi che se utilizzati in modo scorretto possono influenzare grandemente il pubblico.
Social e fake, le ricadute economiche
L’uso distorto dei social media ha permesso il proliferare di una fiorente economia. Come noto, i social media basano il loro business sulla pubblicità e sulle interazioni.
Chi utilizza i profili fake sfrutta entrambi questi elementi in quanto, da un lato punta ad avere sempre maggiori interazioni con il pubblico e, dall’altro, solitamente, ha una capacità economica che gli permette di finanziare importanti campagne pubblicitarie.
Il report afferma che l’industria dei bot si è trasformata in un redditizio mercato in cui le persone si guadagnano da vivere creando programmi più o meno avanzati capaci di aumentare visualizzazioni, like e condivisioni nei social. La comprensione del funzionamento degli algoritmi, unita al potere economico, permettono quindi di sfruttare fortemente la piattaforma social, in alcuni casi guadagnandoci.
Si capisce dunque il motivo per cui, sino ad oggi, le piattaforme non hanno contrastato particolarmente queste attività di disinformazione. La loro redditività è stata centrale: ha permesso ai malintenzionati di trovare un alleato nelle company proprietarie dei media.
Certo, allo stato attuale, come rileva in più occasioni il Report, le piattaforme social starebbero sviluppando sistemi atti ad evitare questo proliferare di fake news e di profili fake. Però questo intervento non può che risultare tardivo. Per anni Facebook & Co. sono risultati quantomeno neutri nei confronti di produttori di notizie false, con conseguenze negative anche in occasione di elezioni.
Social e profili fake, le strategie da adottare
Come evidenzia il documento, anche se un individuo impostasse il proprio profilo social con i più alti livelli di privacy, i malintenzionati sarebbero oggi in grado di trarre informazioni su di lui attraverso amici e parenti. Si pensi ad esempio ad una famiglia in cui un soggetto non pubblichi foto delle proprie vacanze ma tutti gli altri sì. Da un simile atteggiamento potremmo trarre informazioni anche sul soggetto che non ha pubblicato alcunché. Questa facilità di reperire informazioni, correlata alla enorme quantità di dati disponibili sui social media, permette ai malintenzionati di sviluppare dei sempre più sofisticati attacchi di social engineering.
E non è un caso se, secondo il Report, gli attacchi social offrono ad oggi il miglior rapporto costi benefici per acquisire informazioni.
In tal senso il continuo sviluppo dell’intelligenza artificiale, della tecnologia deep fake e dei chatbot, costituiscono un grosso problema perché rendono gli attacchi tramite social media sempre più credibili.
Come fare allora per far fronte a questi pericoli? L’esercito Usa sta studiando una strategia: si ritiene che la migliore difesa costituisca nella creazione di best practice e di una costante formazione. Tuttavia, ci sono una serie di problemi che ostacolano una formazione efficace in questo campo. Innanzitutto l’addestramento, che può avvenire in ambiente chiuso oppure in ambiente aperto, ma che, in entrambi i casi, comporta una serie di problemi. Ed infatti l’addestramento effettuato in un ambiente di social media chiuso o simulato non sarà particolarmente efficace poiché i tirocinanti saranno pronti a contrastare gli attacchi simulati ma non quelli reali.
D’altro canto, la formazione in un ambiente aperto spesso non è possibile a causa dei termini di utilizzo del social media. La soluzione migliore sarebbe quindi identificare e modellare le migliori pratiche e fornire esempi di attacchi nella vita reale in modo da creare una certa consapevolezza. Inoltre, è essenziale favorire una cultura organizzativa positiva e facilitare la segnalazione di attacchi e comportamento sospetti.
Social network, formazione la via maestra
Il pericolo derivante dall’utilizzo malevolo dei social media, come visto è concreto, ed ha già mietuto le prime vittime. I governi e le piattaforme sono quindi in netto ritardo rispetto ai malintenzionati. Secondo il report esistono però delle strade percorribili che potrebbero permettere di confinare gli interventi malevoli illustrati.
La prima via consiste nel far sì che i social media smettano di essere neutrali ed inizino ad essere più proattivi, aumentando l’attività di moderazione dei contenuti di modo da riuscire ad individuare tempestivamente ogni minaccia per la corretta informazione delle persone.
La neutralità della rete e dei suoi servizi è da sempre stata un baluardo fermo, difficilmente abbattibile, tuttavia, per evitare che forze esterne influenzino l’opinione pubblica, la Nato ritiene auspicabile un intervento sempre più proattivo. Ma a parere di chi scrive, una simile soluzione risulta poco efficace se non addirittura pericolosa. Una volta che si fornisce un potere di censura o, comunque, di controllo è necessario garantire che il controllo venga effettuato da un soggetto realmente imparziale altrimenti il rischio, volendo riprendere una famosa opera di Alan Moore è che nessuno controlli il controllore (“Who watches the watchmen?”). Come si fa a cedere un simile potere ad una piattaforma social? Il rischio è che una volta neutralizzato il pericolo straniero, si utilizzi una simile arma per influenzare l’opinione pubblica a destra o a sinistra. E ciò non è tollerabile.
Peraltro, nel 2018 è stato osservato un graduale passaggio dai social media tradizionali -come ad esempio Facebook – a social basati su chat crittografate peer-to-peer -come WhatsApp. Questo cambiamento renderebbe quindi ininfluente una attività di moderazione in quanto il design delle piattaforme peer-to-peer rende impossibile ogni intervento di moderazione da parte dei titolari. Anche per tale ragione è evidente che un aumento dell’attività di moderazione da parte delle piattaforme non è la soluzione migliore al problema.
E’ invece condivisibile il secondo suggerimento fornito dal report il quale ritiene che la formazione e l’informazione siano un efficace modo per permettere agli utenti di costruirsi una opinione critica, capace anche di individuare aspetti allarmanti, evitando in questo modo di credere a fake news e a profili fake.
Un pubblico informato e pronto a capire se l’interlocutore è un bot o un profilo fake è in grado di proteggersi anche nelle chat peer-to-peer ed in altri ambienti chiusi.
In tal senso è auspicabile una sempre più puntuale informazione tramite i media tradizionali. Per questo è essenziale supportare il giornalismo indipendente e gli ordini dei giornalisti, con proprie regole deontologiche e proprie linee guide atte ad identificare prontamente le attività maligne.
Le company proprietarie dei social media più diffusi dovrebbero infine trovare delle soluzioni che permettano allo stesso tempo di proteggere l’anonimato degli utenti ed evitare che lo stesso anonimato venga usato come difesa dietro cui celare attività malevole.
Il distorto utilizzo dei social media è pericoloso, in quanto è tanto una questione di abuso di uno strumento quanto una questione di abuso della mente umana e dei principi fondamentali su si basano tutte le società democratiche. Per questo è auspicabile la creazione di misure di difesa idonee, capaci di fermare il proliferare dei fenomeni sopra illustrati.