il report

Disinformazione politica sui social, così la propaganda li manipola nel mondo

Dal 2017 a oggi, la manipolazione dei social network è più che raddoppiata, secondo un nuovo rapporto. Ecco gli strumenti usati per diffondere fake news, come si costruisce una campagna di disinformazione, lo scenario in Italia, i rischi e i trend in termini di propaganda computazionale e le possibili contromisure

Pubblicato il 04 Ott 2019

Federica Maria Rita Livelli

Business Continuity & Risk Management Consultant, BCI Cyber Resilience Group, Clusit, ENIA

social

La manipolazione organizzata dei social media dal 2017 a oggi è più che raddoppiata. Lo certifica il nuovo report dell’Oxford Internet Institute (OII), rilasciato nei giorni scorsi, dal titolo “The Global Disinformation Order: 2019 Global Inventory of Organised Social Media Manipulation’ – sullo stato della disinformazione veicolata dai social media nel mondo.

Il report è il risultato di un monitoraggio durato tre anni, che rivela le varie azioni in atto per diffondere informazioni deviate sui social network attraverso l’uso degli algoritmi, automazione, big data, al fine ultimo di manipolare la sfera pubblica.

L’argomento è quanto mai caldo, considerando anche quanto sta accadendo negli USA, dove è stato chiesto l’impeachment contro il presidente Donald Trump, accusato di essere stato aiutato nelle presidenziali del 2016 da hacker ucraini.

Vale la pena ricordare che l’OII è stato già in precedenza incaricato dal Senato americano di indagare quanto alcuni troll russi avessero influito sull’esito delle scorse presidenziali del 2016, portando inaspettatamente alla vittoria di Trump sulla preferita Clinton. Il sospetto era (e rimane) che, in quell’occasione, siano state utilizzate delle tecniche di disinformazione per inquinare il dibattito politico, a scapito del bacino elettorale dei democratici (ispanici, afroamericani, messicani).

Manipolazione organizzata in 70 paesi

Philip Howard, che dirige l’OII, denuncia quanto la manipolazione dell’opinione pubblica sulle piattaforme sia considerata come una minaccia critica per la vita pubblica. Non si tratta solo di azioni deplorevoli commessi da soggetti privati: anche Agenzie governative e partiti politici utilizzano i social media per diffondere fake news, disinformazione, allo scopo di esercitare forme di censura e controllo per minare la fiducia nei media o nelle istituzioni.

Attacchi transnazionali di disinformazione, principalmente attraverso Facebook e Twitter, vengono di continuo perpetrati da potenze straniere, Cina e Russia in primis, seguite da India, Pakistan, Russia, Arabia Saudita e Venezuela.

Secondo il rapporto dell’OII risulta che 70 Paesi usano la propaganda computazionale per manipolare l’opinione pubblica; 48 Paesi – rispetto ai 28 in passato identificati – praticano una manipolazione dei social media formalmente “organizzata”; 26 Paesi autoritari in cui entità governative hanno usato la propaganda computazionale come strumento di controllo dell’informazione per sopprimere l’opinione pubblica, la libertà di stampa, screditare critici e oppositori e sovrastare il dissenso.

Il fenomeno è in crescita quantitativa e in termini di pericolosità per la democrazia se si pensa all’attività  svolta da singoli soggetti o da partiti politici che diffondono disinformazione e fake news in occasione di elezioni. Il rapporto, a tale proposito, riferisce che almeno 45 Paesi hanno utilizzato strumenti di propaganda computazionale per aumentare finti follower o diffondere informazioni manipolate per incrementare il sostegno elettorale (le stesse strategie impiegate durante la Brexit e durante le elezioni Usa del 2016).

Il settore non istituzionale non si presenta meno inquinato: sempre secondo il rapporto dell’OII, in 56 paesi Facebook risulta essere la piattaforma preferita per la manipolazione social.

Come si costruisce una campagna di disinformazione

Il monitoraggio OII svolto negli ultimi tre anni ha evidenziato che la disinformazione utilizza diversi tipi di account:

  • I bot sono account altamente automatizzati – utilizzati in almeno 50 Paesi – che imitano gli umani e vengono soprattutto utilizzati per “amplificare” narrative oppure per “disperdere” il dissenso in un mare di fake news.
  • Gli account umani – rilevati in almeno 60 Paesi – risultano essere maggiormente utilizzati rispetto ai bot in quanto account non automatizzati che ingaggiano vere e proprie conversazioni e repliche, commenti e messaggi privati sul social media.
  • I cyborg sono invece account che utilizzano sia l’automazione sia il controllo umano; risultano essere utilizzati meno pur risultando impiegati per propaganda computazionale nell’11% dei Paesi individuati.
  • Gli account rubati o hackerati, sono diventati account sempre più strategici dal momento che costituiscono la connessione tra propaganda computazionale e altre forme tradizionali di cyber attack.
  • I cyber troops della propaganda computazionale sono invece persone reali, in tutto e per tutto, che utilizzano il proprio account e sono connesse a campagne governative (ne abbiamo traccia in Vietnam ed in Tagikistan).

Propaganda computazionale: la campagna di disinformazione contro i manifestanti di Hong Kong

I fatti di cronaca degli ultimi mesi hanno evidenziato come i manifestanti di Hong Kong siano oggetto, oramai da tempo, di una campagna di disinformazione su Twitter. Inoltre, l’analisi pubblicata alcuni giorni fa da Graphika – società che analizza social media ed in particolare YouTube – rivela che esistono reti di spam su più piattaforme, a basso impatto, che utilizzano account fake o account rubati o hackerati per attaccare le proteste. L’analisi evidenzia, inoltre, la commistione di contenuti clickbait (la cosiddetta “esca da click”) e contenuti politici che servono per nascondere il network, camuffarlo (tale commistione è stata definita dai ricercatori come Spamouflage Dragon, i.e. spam + camouflage).

Interessante anche sapere che Telegram, l’app che viene utilizzata dai manifestanti di Hong Kong per coordinarsi e che, viene impiegata da utenti pro-Cina per “doxare” i manifestanti, ovvero per cercare info su internet sulla loro identità, con intento malevolo, per identificarli collettivamente e poi segnalarli alle autorità cinesi.

Facebook, Twitter e YouTube hanno chiuso numerose pagine e bloccato gruppi ed account che attuavano un comportamento falso e coordinato, parte di un piccolo network che ha origine in Cina e focalizzato su Hong Kong. Inoltre, per la prima volta questi social network hanno denunciato come le loro piattaforme venissero utilizzate da account collegati con il Governo cinese e come tale operazione fosse stata concepita per “seminare” il disaccordo politico e “mettere a repentaglio” la legittimità e le posizioni politiche del movimento delle proteste che sta lottando per la libertà. Fatto questo che ci deve far riflette come la propaganda computazionale stia diventando una minaccia per la stabilità globale.

Lo scenario italiano

Rispetto ad altri Paesi, lo scenario italiano risulta essere ancora allo stadio embrionale, sebbene in fase di ampliamento, rispetto a quanto accade in nazioni come il Regno Unito e gli USA dove la tecnica e l’utilizzo sono ormai a livelli avanzatissimi. È interessante notare come il rapporto dell’OII evidenzi che in Italia la disinformazione sia perpetrata soprattutto a scopi politici e partitici e risulti praticamente insistente nei confronti di aziende o di organizzazioni civili.

Nel nostro Paese la propaganda computazionale avviene tramite bot programmati per diffondere e moltiplicare i like e la condivisione di post. Si tratta principalmente di messaggi atti a distrarre da altre notizie e ad amplificare le divisioni a livello sociale (al momento, non verrebbero utilizzati account umani, cyborg o account rubati)

Quale futuro ci attende

Indubbiamente questi sistemi patologici che l’OII ha richiamato alla nostra attenzione non si fermeranno in futuro, ma, anzi, subiranno un’ulteriore evoluzione ed utilizzeranno le nuove tecnologie – AI, realtà virtuale, IoT – sino ad assumere forme sempre più complesse e articolate.

Inoltre, l’avvento del 5G consentirà di attuare operazioni di disinformazione in modo più rapido e più ampio e sarà sempre più difficile effettuarne un efficace monitoraggio ed intraprendere attività di fact-checking e debunking per contrastarle.

Paul M. Barret, autore del report “Disinformation and the 2020 Election” recentemente pubblicato, analizza alcune delle forme e delle fonti di disinformazione che potrebbero influenzare le prossime elezioni presidenziali negli USA e fornisce alcune previsioni di trend in termini di propaganda computazionale, oltre a riportare quanto ad oggi Facebook, Twitter e YouTube abbiano fatto per potenziare le proprie difese e contrastare la disinformazione (tramite la cancellazione degli account fraudolenti, mobilitazione di squadre speciali atte ad identificare irregolarità durante periodi di elezioni, impiego di AI per cancellare fake account automatizzati e attività di fact-checking utilizzando società esterne).

Inoltre il report offre ai social media alcune raccomandazioni in termini di ulteriori misure che possono essere implementate per essere pronti a contrastare i futuri “attacchi” durante il 2020, e precisamente:

  1. Individuare e rimuovere video deepfake, ossia video realistici, ma fraudolenti, che hanno il potere di “sminuire” i candidati politici ed esacerbare la dibattito/critica politica.
  2. Rimuovere i contenuti ritenuti falsi a prescindere, ossia pur attuando già la rimozione di hate speech, voter suppression ed altri contenuti, tale attività deve essere svolta in modo più incisivo.
  3. Assumere un supervisore senior di contenuti per monitorare e contrastare la disinformazione.
  4. Identificare misure per contrastare il problema della disinformazione su Twitter attraverso un maggior controllo.
  5. Limitare l’utilizzo di Whatsapp, introducendo la restrizione della funzione di inoltro di contenuti limitatamente ad un chat group per volta.
  6. Contrastare la disinformazione for-profit, preparandosi a difendersi da contenuti falsi generati da società assoldate per generare propaganda computazionale e contribuire a disincentivare la diffusione ed amplificazione della disinformazione per profitto.
  7. Promuovere la promulgazione di leggi atte a regolamentare la pubblicità politica/elettorale e sanzionare l’attività di vote suppression, in USA tali disegni di leggi, che sono ancora al vaglio del Congresso, potrebbero contribuire a contrastare maggiormente alcune forme di disinformazione.
  8. Promuovere la collaborazione tra i Social Media a livello globale per contrastare la disinformazione, per esempio, a fronte della chiusura di account da parte di una piattaforma, anche le altre piattaforme dovrebbero fare lo stesso con gli account ad essi affiliati.
  9. Sviluppare programmi educazionali sull’utilizzo dei social media in modo più diretto ed incisivo, in modo tale che gli utenti siano in grado di riconoscere i contenuti falsi e possano sviluppare un’opinione critica.

Conclusioni

Non basta riconoscere la libertà di informazione, bisogna preoccuparsi dei “veicoli” dell’informazione che non devono essere “devianti” nella trattazione della realtà.

La libertà dei social media ed il loro pluralismo debbono essere salvaguardati per garantire l’uguaglianza nell’accesso alle informazioni, il diritto di essere debitamente informati, assicurando alla società un’opinione pubblica consapevole della realtà.

Il contrasto alle fake news ed alla propaganda computazionale può essere facilitato da una maggiore trasparenza degli algoritmi che selezionano le notizie, maggiore visibilità delle notizie affidabili e soprattutto attraverso programmi di alfabetizzazione digitale per contrastare la disinformazione e sviluppare strumenti che permettano agli utenti di combattere ad armi “pari”, difendendo così la diversità, la sostenibilità dei mezzi di informazione e soprattutto la crucialità della libertà d’informazione per la salvaguardia della democrazia, senza dimenticare la promulgazione di leggi a livello globale che possano contrastare questo fenomeno ormai dilagante.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Social
Analisi
Video
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati