il report

Social network, così si manipolano con un “pugno di euro”: rischi e contromisure

Secondo un report Nato, che mirava a valutare l’abilità delle piattaforme social a identificare e a rimuovere le attività di manipolazione, a soli 300 euro si possono comprare migliaia di commenti, like, visualizzazioni e follower dai cosiddetti Manipulation Service Providers. Ecco cosa serve per contrastare il fenomeno

Pubblicato il 06 Feb 2020

Federica Maria Rita Livelli

Business Continuity & Risk Management Consultant, BCI Cyber Resilience Group, Clusit, ENIA

social smartphone

Un recente studio del Strategic Communication Centre of Excellence (StratCom) dell NATO rivela come con un “pugno di euro” sia possibile acquistare like, commenti, follower e video view creati da bot e che, gran parte degli account social falsi, nonostante siano stati segnalati alle piattaforme come tali, rimangano visibili online.

I principali social media, oggetto dello studio – Facebook, Twitter, Instagram e YouTube – non riuscirebbero, quindi, ad arginare efficacemente il fenomeno della manipolazione degli account nonostante i continui controlli ed i blocchi di massa. Nato StratCom rivela inoltre, come i servizi di manipolazione risulterebbero facilmente reperibili online.

Il Report StratCom

Lo StratCom ha condotto un esperimento per un periodo di 4 mesi – da maggio ad agosto 2019 – che si poneva come obiettivo di comprendere il grado di manipolazione dei social, nel tentativo di capire come gestire in modo più incisivo le interferenze registrate, ad esempio, nelle ultime elezioni politiche, in vari paesi, tramite attività di manipolazione, da parte di antagonisti, atte a contrastare i propri avversari.

La manipolazione si fonda su un fiorente mercato, in costante crescita, con costi operativi modestissimi, dominato dai cosiddetti Manipulation Service Providers (MSPs) – localizzati soprattutto in Russia – a cui si rivolgono facilmente utenti comuni, società e “attori” istituzionali per acquisire i cosiddetti servizi di social media engagement sotto forma di like, commenti e condivisioni video, ecc.

L’esperimento mirava a valutare l’abilità delle piattaforme social a identificare e a rimuovere le attività di manipolazione. Sono stati acquistati servizi di engagement su 105 differenti post su Facebook, Instagram, Twitter e Youtube, utilizzando 11 MSPs Russi, 5 Europei (1 Polacco, 2 Tedeschi, 1 Francese e 1 Italiano) a dimostrazione, appunto, di come sia facile reperire tali servizi online.

Al costo di soli 300 euro sono stati comprati 3.530 commenti, 25.750 like, 20.000 visualizzazioni e 5.100 follower. Inoltre, analizzando gli account che “fornivano” il servizio di manipolazione, i ricercatori sono riusciti a identificare 18.739 account utilizzati per manipolare le piattaforme social.

I ricercatori hanno anche valutato l’abilità delle piattaforme a identificare direttamente la manipolazione, riscontrando come gli engagement falsi, dopo 4-5 settimane, risultassero ancora online. Inoltre, è stata oggetto dell’esperimento la capacità reattiva delle piattaforme stesse a rispondere ad utenti che avessero segnalato fake account, evidenziando come, a 3 settimane della notifica, più del 95% degli account segnalati risultassero ancora attivi.

È risultato, nel contempo, che il 90% di fake account sono stati utilizzati a scopo commerciale, mentre il rimanente è stato utilizzato per azioni di manipolazione in ambito politico.

Sono stati identificati, di fatto, fake engagement comprati per 721 pagine politiche e 52 pagine corrispondenti a governi ufficiali, compresi 2 account ufficiali di 2 presidenti, una pagina ufficiale di un partito politico europeo, oltre a vari account riferiti a politici junior e locali europei del blocco non-occidentale.

Le performance delle piattaforme social

Lo studio ha valutato la performance di Facebook, Instagram, Twitter e YouTube, in termini di contrasto alla manipolazione, evidenziando come essi abbiano livelli diversi di efficacia nella gestione dei “fake”.

Facebook risulta essere la piattaforma che meglio ha gestito il contrasto alla creazione di inauthentic account ed ai servizi offerti dai MSPs, grazie ai propri sistemi di anti-automation. Tuttavia, i MSPs, in alcuni casi, sono riusciti ad aggirare le contromisure della Piattaforma, agendo indisturbati per settimane senza essere bloccati.

Facebook è riuscito a rimuovere il 10% dei fake like dopo un mese, mentre non è stato in grado di rimuovere i fake comment e, inoltre, è risultato molto debole nel contrastare le fake video view.

Instagram è risultata efficiente nel bloccare al 50% la creazione dei fake account, anche se risulta molto facile ovviare al blocco utilizzando i VPNs e il cash control. Il costo del servizio di manipolazione è il più basso in assoluto tra quelli delle varie piattaforme dato che, per i MSPs, Instagram è la piattaforma che risulta più facile da manipolare. La piattaforma, inoltre, sembra mostrare problemi di conteggio dei like e dei commenti dopo la loro rimozione, dimostrando ulteriormente la sua vulnerabilità, dal momento che, anche quanto i bots sono bloccati, l’effetto della manipolazione permane.

Instagram, inoltre, ha dimostrato una scarsa capacità a rimuovere i fake like (1%) e account (14%) successivamente alla notifica dei falsi alle piattaforme da parte dei ricercatori; tuttavia, si è dimostrato efficiente nel bloccare il 44% dei fake follower.

In generale Instagram deve migliorare le proprie misure di contrasto alla manipolazione, risultando facile e a basso costo attuarla.

Twitter risulta essere in assoluto la piattaforma più performante in termini di contrasto alla manipolazione: sono stati identificati e rimossi oltre la metà dei like e retwitt comprati e il 35% degli account comunicati alla piattaforma dai ricercatori sono stati bloccati. Ma l’operazione, per quanto fortunata, presenta anch’essa un neo: risulta totalmente inefficiente l’azione di contrasto alle fake video view, i.e. nessuna rimozione effettuata.

YouTube risulta essere la piattaforma peggiore nel rimuovere i fake account, ma al contempo eccelle nel contrastare i fake likes e le fake video view. Inoltre, è stato riscontrato che 9 fake comment su 10 sono rimasti attivi durante tutta la durata dell’esperimento, dimostrando ulteriormente come le attività false su YouTube possono rimanere attive per mesi senza essere rilevate.

I quattro “comandamenti”

Sulla base dell’esperimento effettuato dal NATO StratCom, le piattaforme social dovrebbero:

  • Implementare nuovi standard e nuove procedure comuni di reporting, basate su più strutturati criteri di identificazione delle manipolazioni, in modo da rendere maggiormente possibile una comparazione omogenea tra le piattaforme stesse.
  • Stabilire modalità di audit indipendenti, per rendere i report più attendibili in termini di identificazione dell’attività dei falsi e valutare il grado della maturità di contrasto delle piattaforme.
  • Aumentare il proprio grado di trasparenza al fine di comprendere meglio lo scopo e gli effetti della manipolazione, difficile da identificare da parte di ricercatori esterni.
  • Adoperarsi per pretendere la regolamentazione del mercato dei MSPs – che sfruttano la propria capacità di sviluppare strumenti e metodi di interferenza, non solo a livello commerciale, ma anche in termini di minacce alla sicurezza politico e governativa e, al contempo, contrastare la promozione dei servizi di manipolazione sulle varie piattaforme, capace di generare guadagni pari a 1,3 miliardi di dollari all’anno.

Conclusioni

È fondamentale che i social media si adoperino il più possibile per prevenire l’abuso delle proprie piattaforme, migliorando ulteriormente il contrasto all’inhautentic behaviour online e la disinformazione che ne deriva.

Non è superfluo ricordare come la Commissione Europea ha definito la disinformazione: “La disinformazione è un’informazione rivelatasi falsa o fuorviante concepita, presentata e diffusa a scopo di lucro o per ingannare intenzionalmente il pubblico, e che può arrecare un pregiudizio pubblico. Il pregiudizio pubblico include minacce ai processi politici democratici e di elaborazione delle politiche e a beni pubblici quali la tutela della salute dei cittadini, dell’ambiente e della sicurezza dell’Unione”.

La Comunità Europea, ovviamente, non si è fermata alle enunciazioni e ha chiesto lo sforzo comune di tutti gli Stati membri per aumentare sempre più il grado di collaborazione contro la disinformazione e la manipolazione delle piattaforme social.

Nonostante, comunque, le misure adottate da parte di Facebook, Instagram, Twitter e YouTube, il cammino è ancora lungo ed irto, affinché si giunga a proteggere gli utenti, le istituzioni nazionali ed europee. Di fatto, la disinformazione è un pericolo sempre in agguato ed in continuo aumento, che può compromettere – a livello individuale – la corretta percezione della realtà e – a livello sociopolitico – il corretto funzionamento delle nostre democrazie. Ne deriva, che tutti gli attori devono impegnarsi per garantire una risposta adeguata alle minacce che rappresenta.

Ma non basta: sarà altresì necessaria la salvaguardia della ragion critica, la promozione di una alfabetizzazione digitale e la massima vigilanza sulla trasparenza delle attività delle piattaforme online, affinché siano sempre verificabili e affidabili.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Social
Analisi
Video
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati