Secondo l’indagine “News vs fake nel sistema dell’informazione” stilata dall’Osservatorio dell’AgCom, il 57% dell’informazione non attendibile si sviluppa attorno ai temi su cui è incentrato il dibattito tra i partiti. Il tutto mentre Google, Twitter e Facebook stanno aumentando gli sforzi per contrastare i messaggi di propaganda politica occulta, spesso gestiti da bot in modo automatico.
Siamo davanti a sfide importanti.
Fake news e partiti in Italia
Alla base dell’allarmante dato nel rapporto Agcom c’è la svalutazione dell’informazione di qualità, in ragione della carenza di investimenti da parte di editori e operatori del settore ma anche della crescente propensione delle forze politiche ad utilizzare la leva della Rete per persuadere, non sempre in modo limpido e trasparente, i potenziali elettori.
Se i cognomi di Salvini, con oltre 20 mila citazioni, e di Berlusconi, con poco più di 10 mila, sono i più citati nelle fake news politiche italiane, quello Donald Trump è al primo posto rispetto agli esteri.
Il picco di fake news nel nostro Paese è stato toccato durante le elezioni del 4 marzo 2018, quando si è definitivamente preso atto dell’inadeguatezza della normativa sulla par condicio, datata 2000 e modellata su un sistema mediatico tradizionale che considerava marginale la Rete e centrale il mezzo radiotelevisivo.
I tweet o i post propagandistici ed elettorali sui social, privi di qualsiasi disciplina legislativa, influenzano in misura crescente un consenso che peraltro appare sempre più volatile, e proprio per questo Facebook e le altre piattaforme stanno già correndo ai ripari per evitare manipolazioni, approntando adeguate contromisure per la sfida elettorale del 2019, quella delle europee.
Gli strumenti di Google
Sempre in vista delle elezioni che il 26 maggio 2019 rinnoveranno il Parlamento europeo, Google – come si legge sulle pagine del suo blog ufficiale – intende mettere in campo delle iniziative per fare in modo che gli oltre 350 milioni di cittadini che andranno a votare possano farlo in modo consapevole e informato. Si tratta di una serie di strumenti che verranno utilizzati in tutta Europa per contribuire a garantire la trasparenza politica e reprimere le “pubblicità oscure” online. Le parole d’ordine sono trasparenza e sicurezza, come si conviene a piattaforme impegnate a dimostrare credibilità e affidabilità nella gestione delle informazioni.
Dal momento che il ruolo principale del motore di ricerca è quello di fungere da punto di contatto tra l’elettore e le informazioni cercate, Google ha annunciato di voler collaborare con le Commissioni Elettorali degli Stati membri in modo da garantire che i dati più rilevanti e autorevoli possano essere raggiunti da chi naviga in modo semplice, chiaro e trasparente. Un impegno che mira a scongiurare il rischio di interferenze e condizionamenti e a ridurre l’azione di coloro che si rendono responsabili delle campagne di disinformazione o misinformazione, come accaduto invece in occasione delle elezioni presidenziali americane del 2016.
Già in passato, strumenti simili sono stati utilizzati in altre elezioni, come ad esempio in Germania: saranno messe in evidenza le informazioni provenienti da fonti “autorevoli” e verranno dunque attivati meccanismi di riconoscibilità e indicatori di attendibilità dei messaggi.
Google farà in modo che le inserzioni pubblicitarie legate alle campagne elettorali e la loro natura siano facilmente riconoscibili e comprensibili: qualunque forma di advertising dovrà essere associata a un partito, a un candidato o a un esponente in carica, così da mettere in chiaro da chi è finanziata. Google annuncia inoltre il debutto di un nuovo processo di verifica pensato per assicurare che chi compra uno spazio sia realmente chi dichiara di essere.
All’interno del Rapporto sulla Trasparenza verrà pubblicata una sezione in cui consultare ogni dettaglio sugli acquirenti delle pubblicità, con informazioni dettagliate sui target e sull’entità dell’investimento. In aggiunta ai nuovi strumenti per la trasparenza delle pubblicità politiche, Google conferma il suo impegno sul fronte della sicurezza e ha annunciato che collaborerà con autorità, giornalisti, organizzazioni che si battono per i diritti umani e altre realtà di tutta Europa, garantendo l’integrità delle piattaforme online dalle quali dipendono.
L’implementazione dell’informazione di qualità e “certificata” andrà di pari passo con lo sviluppo di progetti formativi mirati. Big G avvierà corsi e programmi di training rivolti a coloro che vengono identificati come i “gruppi più vulnerabili”, maggiormente esposti a rischi come il phishing, ma non solo.
Nei corsi verranno illustrate le modalità di utilizzo del Programma di Protezione avanzata e di Project Shield, servizio gratuito con tecnologia sviluppata dal motore di ricerca per mettere al sicuro i siti di informazione dalle conseguenze di un attacco DDoS.
Nei prossimi mesi, Google News Lab (la divisione creata per collaborare con i giornalisti) intensificherà il dialogo con le redazioni di 27 Paesi per un costante fact checking e offrirà corsi di formazione per segnalare strumenti tecnologici che potrebbero tornare utili nella verifica delle fonti e nell’elaborazione delle informazioni. Maggiore trasparenza sulla pubblicità, chiare guide per gli elettori e fact checking con i giornalisti sono quindi i cardini sui quali si baseranno gli strumenti di Google.
La nuova regolamentazione UE
L’impegno e gli sforzi di Mountain view in Europa possono essere interpretati come una conseguenza delle pressioni subite dalle autorità di regolamentazione dell’UE. Nei giorni scorsi, 14 società che offrono servizi di comparazione degli acquisti hanno mandato una lettera aperta a Margrethe Vestager, commissario europeo per la concorrenza, sostenendo che il meccanismo di conformità di Google shopping non sia adeguato alla decisione dell’Antitrust europeo di giugno 2017, che puniva il motore di ricerca per la sua posizione dominante, e, di fatto, consenta al gigante americano di monopolizzare il mercato.
I bot per la propaganda
In questo scenario, è sempre più utile e opportuno parlare di bot e chatbot, “voci” automatizzate di intelligenza artificiale sviluppate per svolgere attività banali online che possono diffondere incitamento all’odio e polarizzare le opinioni. La capacità dei robot – un termine che può descrivere qualsiasi processo automatizzato presente in una rete di computer – di imitare il comportamento e il linguaggio online si è sviluppata in modo significativo negli ultimi tre anni
Per il momento, secondo varie stime, la maggior parte delle persone rimane fiduciosa di poter distinguere tra una presenza umana e le voci dei “soldati a piedi” codificati di Internet che svolgono più del 50% dei suoi compiti e contribuiscono per circa il 20% delle “conversazioni” di tutti i social media.
Quella fiducia non si estende, tuttavia, a coloro che hanno dedicato l’ultimo decennio a cercare di individuare e gestire quell’invasione bot per contrastarla e arginarla.
Di recente il professor Emilio Ferrara, ricercatore principale di machine intelligence e data science presso la University of Southern California, ha creato un individuatore di bot che consente di utilizzare molti degli indicatori convenzionali dell’automazione – attività anormali dell’account, ripetizione, profili generici – per determinare l’origine di un feed Twitter.
Il sistema si basa su un sofisticato e imperscrutabile algoritmo. Tuttavia i rilevamenti diventano più complessi, anche in ragione dei progressi dell’intelligenza artificiale e dell’elaborazione del linguaggio naturale che rendono i robot ogni giorno migliori e più simili a noi.
A un certo punto i robot politici sono entrati nell’agone propagandistico-elettorale, principalmente su Twitter, con l’intento di diffondere indicazioni di voto e disinformazione. Inizialmente sembrava fossero generati da singoli hacker, in seguito queste tecniche sono state adottate da gruppi organizzati e generosamente finanziati. Questi bot hanno dimostrato di essere uno strumento molto efficace per diffondere punti di vista estremistici e teorie cospirative, e per individuare opinioni di questo tipo, realmente espresse da alcuni individui, che sono poi state condivise e retweettate, dando loro una visibilità sproporzionata.
Sono questi i bot che i social media cercano di abbattere, anche in seguito alle clamorose e devastanti indagini sulle elezioni americane del 2016. Quest’anno Twitter ha disattivato 6 milioni di account bot. Secondo i dati relativi alle elezioni americane di medio termine, la diffusione virale di notizie false dovuta a utenti automatizzati si aggira tra il 10 e l’11%, percentuale significativamente inferiore rispetto al 2016, quando raggiunto il 20%. Sorge però il dubbio che i sistemi di rilevamento dei bot non stiano monitorando i bot più sofisticati, che assomigliano agli umani persino agli occhi degli algoritmi. I bot si stanno evolvendo: inizialmente non erano abbastanza intelligenti da riconoscere “l’intenzione” dei messaggi e si basavano solo su parole chiave, ma le cose stanno cambiando. Le aziende commerciali che utilizzano l’intelligenza artificiale e l’elaborazione del linguaggio naturale in questo momento stanno già costruendo tali tecnologie. Si sta cercando di scoprire se anche gli attori politici li utilizzano o meno. In ogni caso la sfida è ardua e la formazione del consenso elettorale appare fortemente condizionata dal dilagare di questi “virus” della democrazia partecipativa in Rete, che somiglia sempre più a una democrazia a ostacoli.
In conclusione
Nella civiltà multimediale molti paradigmi della comunicazione stanno subendo metamorfosi epocali. Uno dei riflessi di tale consolidata tendenza è quello di scardinare gli assetti regolatori e di stimolare i legislatori a varare nuove norme per tutelare i diritti democratici. Anche gli operatori tecnologici stanno dimostrando di voler contribuire alla definizione di un nuovo quadro di regole, attraverso l’emanazione di policy “garantiste” e codici di autodisciplina e l’adozione di evolute soluzioni tecnologiche.
Anche perché sono consapevoli che se non lo fanno loro per primi, saranno costretti a subire l’intervento ex ante dei regolatori (in Europa e non solo, anche le istituzioni USA si stanno muovendo, anche se in seconda battuta) ed ex post di varie autorità (privacy e Antitrust, con sanzioni).