Le nuove tecnologie dell’informazione e della comunicazione hanno portato a un cambio strategico nel processo di “formazione” dell’opinione pubblica con cui chiunque voglia provare a raccogliere consenso o far valere le proprie opinioni si deve confrontare; non farlo vuol dire andare incontro ad un sicuro fallimento.
La diffusione di fake news, o spesso di notizie che tendono a distorcere la realtà partendo da una base reale ma modificandola, o a volte stravolgendola per orientarla col fine di sollevare sentimenti di paura o peggio di odio, stanno diventando ormai problematiche molto complesse e aziende come Facebook, Twitter e Google sono sempre più sotto pressione per identificarle e bloccarle in modo automatico. Ovviamente non è possibile agire solo con l’intervento umano dietro alla segnalazione di utenti, che ormai sono tantissime e che coinvolgono enormi quantità di contenuti online; l’utilizzo dell’intelligenza artificiale svolge, in questo campo, un ruolo determinante.
Il microtargeting: la nuova arma in mano alla politica e non solo
La nuova “arma” si chiama microtargeting ed è uno strumento relativamente nuovo impiegato nel marketing, soprattutto politico e ha come obiettivo indirizzare le elezioni, la scelta dei candidati e il consenso politico più in generale.
Per gli esperti di marketing, non si sta parlando di nulla di nuovo, infatti è una strategia nota nel settore che utilizza i dati più significativi delle persone, ciò che gli piace, a chi sono connessi, quali sono i loro dati demografici, cosa hanno acquistato ed altro, per “segmentarli” in piccoli gruppi per il “targeting dei contenuti”, cioè l’invio di messaggi che, con una ragionevole certezza, sapremo già in anticipo che faranno “presa”. È la ragione per cui se si acquista un costume da bagno su Amazon durante l’estate, con tutta probabilità si potrà ricevere subito dopo una pubblicità per una protezione solare o l’offerta per una bellissima vacanza in una località di mare e così via. Questo, da un lato può aiutarci ad avere in modo automatico contenuti che sono interessanti e utili in quel preciso momento ma ha anche un “lato oscuro”, specialmente se fornisce informazioni che sono sbagliate o distorte e soprattutto se intese a influenzare il voto degli elettori.
In politica infatti, così come nelle azioni di vendita di un prodotto, il microtargeting dell’elettorato mira ad individuare in modo esatto i gusti dell’elettore e a non vederlo più come quel soggetto che passa, un po’ per caso e distrattamente, davanti a dei cartelloni elettorali (ultimamente sono difatti quasi scomparsi), o mentre è davanti al televisore guardando una partita di calcio, mandandogli dei messaggi generici e in modo indistinto, ma a “contattarlo” con una strategia “persona per persona” o “casa per casa” ma sapendo in anticipo che quel tipo di messaggio a lui interessa o che comunque riesci a riscuotere la sua attenzione, o la sua paura, o la sua rabbia o delusione. Con il microtargetting insomma, per fare un’analogia che le tecniche di guerra, si passa da tattiche di “bombardamento aereo, a tattiche di cecchinaggio di quartiere.
Questo negli ultimi anni è diventato possibile, con l’esplosione dei big data. Ora si dispone di tecniche sempre più potenti per analizzare e segmentare l’obiettivo, migliorando l’efficacia di utilizzo delle enormi quantità di dati raccolti dai social network e dai dispositivi di auto-misurazione sui nostri smartphone. È una gara, tuttavia, in cui il vincitore non è chi possiede gli strumenti migliori, ma chi controlla la maggiore quantità di dati e riesce ad interpretarli a suo favore tramite tecniche di intelligenza artificiale e data mining.
Il data mining nel cuore delle elezioni
Barack Obama è stato un vero precursore in questo settore e ha ampiamente utilizzato il data mining e il microtargeting durante la campagna presidenziale del 2012. Vari ex dipendenti di Google, Facebook o Amazon sono stati assunti nel suo team per la campagna elettorale. Il profilo ricercato in via prioritaria era quello di “data scientist”, la cui responsabilità è quella di gestire e analizzare i dati raccolti dalla rete (big data).
Un altro esempio più recente: Donald Trump ha assunto suo genero Jared Kushner per farsi carico della sua comunicazione digitale durante la campagna elettorale repubblicana nel 2016. A questo proposito, l’interessato è stato estremamente attento ai social network al fine di sviluppare una psicologia esatta del potenziale elettore, al punto che lo scorso anno il presidente americano ha persino riconosciuto che “forse non avrebbe vinto senza twitter “. Tutto questo, detto direttamente dall’interessato, fa capire la portata e il potenziale di questi strumenti.
Campagna elettorale tradizionale vs media digitali
Vale la pena fare un piccolo confronto tra i media digitali rispetto al panorama dei media tradizionali, che per decenni è stato dominato da televisione, radio e carta stampata. Ci sono due fattori chiave da considerare sui media tradizionali:
- Le piattaforme mediatiche tradizionali inviano i contenuti ( annunci politici su una rete TV) a un pubblico molto vasto e indistinto. L’unica operazione possibile e tutt’ora utilizzata è quella di passare contenuti suddividendoli per fascia di orario o per tipo di trasmissione, ma non è possibile fare nulla più di questo.
- Le pubblicità politiche diffuse sui media tradizionali ricevono, da sempre e necessariamente, un enorme controllo per il rispetto delle norme elettorali nazionali, tese a garantire la pluralità e il rispetto di tutti i partiti politici coinvolti e la garanzia che le pubblicità che “passano” sui media tradizionali non contengono palesi falsità.
Questi controlli non valgono, o meglio sono più facilmente aggirabili, quando si tratta di microtargeting sui media digitali. Con il microtargeting, gli inserzionisti possono curare i contenuti previsti come i più pertinenti per gruppi specifici di persone alle quali si vogliono rivolgere. E in questo modo il grande pubblico, in genere, non vede gli stessi annunci.
La sfida: la comprensione del “linguaggio naturale”
I progressi nell’apprendimento tramite tecniche bastate sull’intelligenza artificiale (AI) e più precisamente sul machine learning, hanno contribuito a svolgere e automatizzare compiti complessi come la classificazione delle immagini e il rilevamento degli oggetti presenti anche all’interno di video. Le reti neurali, che sono alla base degli algoritmi di apprendimento, imparano a svolgere i compiti ai quali sono destinati basando la loro attività su esempi e sullo svolgimento di azioni correttamente già svolte. La convinzione generale è che più dati di qualità fornisci ad una rete neurale, migliore sarà la sua prestazione.
Questo è vero, ma solo in una certa misura. Di base le reti neurali sono macchine statistiche, seppur molto complicate. Ad esempio, una rete neurale addestrata su milioni di immagini etichettate e targettizzate, crea una rappresentazione matematica dei modelli di pixel contenuti nelle immagini target, l’aiuterà in modo molto preciso nel riconoscere altre immagini aderenti al modello predefinito.
Ma quando si tratta di elaborazione del linguaggio naturale, anche scritto in normali messaggi di testo, l’apprendimento automatico diventa molto più complesso e attualmente mostra ancora lacune importanti.
L’elaborazione del linguaggio naturale comprende molte tecniche diverse per l’interpretazione del linguaggio umano, che vanno dai metodi statistici di apprendimento automatico agli approcci basati su regole e algoritmi. In questo caso abbiamo bisogno di una vasta gamma di approcci perché l’elaborazione di dati basati su testo o sulla voce (trasformata in testo), hanno un’alta complessità e variano notevolmente, così come le applicazioni pratiche.
Le attività di base della Natural Language Processing (PNL) comprendono la tokenizzazione e l’analisi, la lemmatizzazione e derivazione, la codifica parziale del discorso, il rilevamento della lingua e l’identificazione delle relazioni semantiche. Praticamente sono le tipiche attività che vengono svolte quando un bambino impara a scrivere le prime frasi alla scuola elementare.
Ma che cos’è l’odio o un contenuto discriminatorio?
Memorizzare un set di metadati pertinenti, rispetto alle proprie categorie di interesse, sembra la strada giusta e i risultati di vari esperimenti dimostrano che riduce la possibilità di errore negli algoritmi di AI di rilevazione di discorsi di odio o discriminatori. Ma ci sono due problemi che renderebbero questa soluzione incompleta.
Innanzitutto, annotare i dati di allenamento con le informazioni pertinenti è un compito difficilissimo. In molti casi, tali informazioni non sono disponibili. Ad esempio, i tweet non contengono informazioni sulla razza, la nazionalità e la religione dell’autore, a meno che l’utente non dichiari esplicitamente tali informazioni nella propria biografia. Alcune di queste informazioni possono essere desunte osservando la sequenza temporale dell’utente e altri contenuti che hanno pubblicato online. Ma, come si può ben comprendere, trovare e annotare quel tipo di informazioni è molto più difficile che individuare contenuti all’interno di foto e video.
Ma anche l’aggiunta di informazioni sull’autore non sarebbero sufficienti per automatizzare e rendere certa l’individuazione di contenuti discriminatori. Un discorso portatore di odio è profondamente legato alla cultura e la cultura varia tra le diverse regioni. Ciò che è considerato “odioso” o inaccettabile può variare non solo tra paesi, ma anche tra diverse città dello stesso paese. E la rilevanza di cose come la razza, il genere e la religione possono anch’essi variare quando si valutano in diverse aree geografiche. Oltre a questo va considerato che la cultura e i modi di dire sono un qualcosa che cambiano nel tempo molto rapidamente. Quella che oggi è considerata la norma potrebbe essere considerata offensiva domani o viceversa.
Gli esseri umani con background, razze, culture e religioni simili spesso discutono sul fatto che qualcosa sia odioso e discriminatorio o meno. Avrete capito che è di fatto difficilissimo sviluppare un set esaustivo di dati per addestrare l’algoritmo di AI che possa tenere conto di tutti quei fattori che abbiamo detto e dare un senso a tutti questi diversi dialetti o modi di esprimersi complicati che abbiamo sviluppato nel corso di migliaia di anni.
Se si tratta di visione, udito, olfatto e riflessi fisici, il nostro cervello e il sistema nervoso sono molto rapidi nel prendere una decisione corretta, ma il linguaggio è la funzione più complicata del nostro cervello, figuriamoci elaborare algoritmi affidabili ed inequivocabili in tal senso.
Politica, gli approcci di Facebook, Twitter e Google
Proprio ad un anno dalle elezioni prossime elezioni presidenziali degli Stati Uniti, che avverranno nel novembre del 2020 i giganti del web e protagonisti dei social più frequentati ed influenti, come Facebook, Instagram, Twitter e Youtube, si pongono il problema sul loro potere nel poter influenzare le scelte politiche sulla base delle informazioni che verranno percepite dagli elettori.
Facebook e Instagram
La piattaforma di Mark Zuckerberg continua a difendere la sua linea identitaria: Facebook è nata per dare voce a tutti e si schiera dalla parte della libera espressione. Ha recentemente deciso di non limitare in alcun modo la propaganda a pagamento sulla proprie piattaforme. C’è la dichiarazione di impegno nel limitare e bloccare contenuti che non rispettino le policy definite, ma nessun vincolo sarà imposto sulla possibilità di limitare i budget a disposizione per diffondere campagne in sostegno di partiti politici o candidati.
Questa scelta di Facebook deve suscitare particolare attenzione per i trascorsi che hanno creato più di qualche sospetto sull’utilizzo dei servizi a pagamento: Facebook Adv. Ci sono stati utenti infatti che hanno fatto un uso senza scrupoli delle tecniche di microtargeting offerte da Facebook Adv. Utenze basate in Russia, si sono dimostrate particolarmente abili nel microtargeting, con l’intento di influenzare la campagna elettorale americana, con tutte le controversie che ne sono seguite.
L’azienda, da parte sua, tramite il suo Chief Security Officer Alex Stamos, è stata costretta a riconoscere l’uso inappropriato di molti account con fini pubblicitari a pagamento da parte delle agenzie di stampa russe. Nel suo post, pubblicato nella Facebook Newsroom, Stamos ha dovuto ammettere diverse accuse: Innanzitutto, che era vero che 470 account, che si sono rivelati falsi (“non autentici”) hanno pubblicato, da giugno 2015 a maggio 2017, circa 3.000 annunci pubblicitari, molti dei quali contenenti fake e notizie distorte, per un investimento complessivo di 100.000 dollari. I messaggi erano tutti altamente divisivi o in grado di radicalizzare le distanze ideologiche tra gli utenti su temi quali l’immigrazione, il possesso di armi, su estremismi religiosi o su gusti sessuali, soprattutto contro i gay.
Tutti questi annunci sono stati pianificati utilizzando proprio tecniche di microtargeting, selezionando attentamente il pubblico su base geografica, orientamento religioso, gusti sessuali, etc. E’ stato stimato che i messaggi siano stati visualizzati e rilanciati complessivamente da circa dieci milioni di utenti.
Diametralmente opposta la scelta, definita a fine ottobre, da Jack Dorsey, il numero uno del microblog, che ha deciso di bloccare tutte le inserzioni pubblicitarie politiche perché “comportano significativi rischi politici” e possono essere usate per influenzare il voto, partendo dal presupposto che sono molto potenti ed efficaci”. Queste le parole del patron di Twitter che evidentemente è ben consapevole di come non ci siano, ad oggi, tecniche efficaci basate su algoritmi di AI che possano limitare e arginare contenuti di propaganda politica a pagamento che possono arrivare a coprire un bacino di utenza potenzialmente sconfinato.
Google e Youtube
Google sta invece pensando di modificare la sua policy sugli annunci pubblicitari politici. Questa indiscrezione è arrivata dal Wall Street Journal pochi giorni dopo la decisione di Twitter di bloccare gli spot politici sulla propria piattaforma. Google infatti, avrebbe tenuto riunioni interne su possibili modifiche alla sua policy e prevede di condividere ulteriori informazioni con i propri dipendenti. Le modifiche riguarderebbero sia il motore di ricerca sia YouTube, la piattaforma video più popolare di proprietà della società californiana. Ad oggi non sappiamo ancora dunque quale sarà la decisione in merito intrapresa dal gigante dei motori di ricerca.
A prescindere dalle azioni intraprese autonomamente dalle aziende, saranno determinanti anche le indicazioni provenienti dalle autorità di controllo come la Federal Trade Commission (FTC) americana e la Commissione Europea che stanno elaborando dei regolamenti per disciplinare le azioni di propaganda politica svolte via social network comprendendone l’enorme portata e i rischi connessi.
Ma stiamo andando verso la sorveglianza di massa?
Per i più allarmisti, il famoso caso Cambridge Analytica dimostrerebbe come si stia andando verso la sorveglianza di massa e, nel prossimo futuro, verso l’arrivo di un “grande fratello” per il controllo delle democrazie occidentali, proprio come previsto da George Orwell. In questo mondo “orwelliano”, gli stati osserverebbero le azioni più “piccole” della popolazione e interferirebbero sempre di più nella propria sfera privata. Tutte le libertà fondamentali dunque, sarebbero messe in discussione o alterate.
In questo sistema, i politici controllerebbero le informazioni attraverso la loro presa sui media, anche attraverso i soldi spesi in campagne mirate e attraverso l’imposizione di un vocabolario semplificato chiamato proprio da Orwell “Newspeak” nel suo romanzo del 1984. Trasportato nel mondo di oggi, questo nuovo linguaggio potrebbe essere chiamato “narrazione semplificata”. Questa strategia avrebbe lo scopo, partendo da una “semplificazione selvaggia”, di offuscare l’accesso al “pensiero critico” delle persone.
Il principio è semplice: più riduciamo il numero di parole di una lingua, più riduciamo il numero di concetti su cui le persone possono riflettere, più riduciamo i dettagli del linguaggio, meno le persone sono in grado di pensare e più agiscono di riflesso sulla onda emotiva. La cattiva padronanza della lingua renderebbe le persone meno critiche, più ignoranti e dipendenti da indicazioni altrui. Dunque, semplificando, sarebbero più facili da manipolare e da portare dalla propria parte.
Ma le regole ci sono anche sui social
#MattarellaDimettiti fu l’hashtag con il quale si scatenò un’offensiva digitale contro il Presidente della Repubblica nella notte tra il 27 e il 28 maggio del 2018. La vicenda risale alle ore successive alle quali il capo dello stato affidò l’incarico esplorativo, per la verifica della formazione del governo, a Carlo Cottarelli, incarico che decadde immediatamente perché, subito dopo quando il Movimento 5S e la Lega trovarono un accordo sul nome dell’attuale premier Giuseppe Conte come Presidente del consiglio. Gli attacchi si intensificarono nei giorni successivi quando Mattarella espose il suo diniego rispetto alla candidatura di Paolo Savona come ministro dell’Economia. Durante quegli accadimenti, in pochi minuti, apparvero circa 400 nuovi profili su Twitter, riconducibili ad un’unica origine, dai quali partirono migliaia di messaggi di insulti e di inviti alle dimissioni al Capo dello Stato, rilanciati anche su Facebook e altri Social. Nell’agosto successivo la procura aprì un’indagine per verificare questo grave fatto che aveva coinvolto la più alta carica dello Stato, per individuarne gli autori.
Proprio di questi giorni la notizia che quell’indagine si è conclusa con la richiesta di rinvio a giudizio di nove persone. Gli “haters” individuati, tutti italiani, accusati di attentato alla libertà, offesa all’onore e al prestigio del Presidente della Repubblica e istigazione a delinquere rischiano fino a 15 anni di carcere. Il fatto che gli haters siano italiani non significa comunque che l’origine dell’”attacco” non sia da ricercare all’estero; i sospetti sui falsi account russi, accusati di aver dato il via all’ondata di attacchi, infatti non stati per nulla smentiti e la comparsa dei 400 nuovi profili twitter è ancora in corso di verifica con le difficoltà tipiche delle indagini internazionali.
Alfabetizzazione e cultura per combattere le “aggressioni” tecnologiche
Proprio il caso del Presidente Mattarella ci porta a ricollegarci alle polemiche di questi giorni sui concetti dell’anonimato sul web. Questa vicenda infatti ci insegna, ancora una volta che le attività illecite, se denunciate alle autorità competenti quasi sempre possono portare all’individuazione materiale dell’autore anche se “nascosto” dietro un’identità social anonima.
C’è l’urgenza di alfabetizzare, di insegnare, creare coscienza nell’uso del web e dei social, indicando e spiegando in maniera chiara ed inequivocabile che non esiste una realtà virtuale ed una “reale”, bensì un’unica realtà nella quale quello che diciamo o facciamo ci rappresenta, sempre.
Mai fare o dire ciò che non si farebbe o direbbe anche “di persona”, con l’interlocutore di fronte. Molte volte chi offende e scrive cose gravissime via social infatti, non lo farebbe mai nella stessa maniera a “viso aperto”, non c’è dunque consapevolezza che lo strumento tecnologico non può essere in alcun modo scudo rispetto ad un reato penale, soggetto a pesanti provvedimenti giudiziari. Questo dovrebbe essere tema di insegnamento nelle scuole per fare in modo di accrescere la consapevolezza delle nuove generazioni sull’uso degli strumenti tecnologici social al fine di ridurre il più possibile gravi atti di intolleranza che, soprattutto tra i giovani, porta anche gravi casi di cyber bullismo purtroppo tristemente noti anche nel nostro paese.