Nel 2018 il mondo è stato scosso dallo scandalo che ha coinvolto Facebook e la società inglese Cambridge Analytica. Le pesantissime indagini, tuttora in corso, resero noto l’utilizzo di tattiche di microtargeting politico allo scopo di influenzare l’opinione dell’elettorato.
A quasi due anni di distanza dall’insorgere dello scandalo, la notte di Capodanno, l’account Twitter @HindsightFiles ha provveduto a diffondere numerosi nuovi documenti che rivelano nuovi aspetti di quella che sembra essere, a tutti gli effetti, una vera e propria strategia globale di distorsione e abuso del political marketing.
Partendo dagli ultimi fatti di cronaca, entriamo, dunque, nei meandri del “neurotic microtargeting” per provare a capire, dinanzi ad un simile scenario, quali rischi possono prospettarsi per gli utenti e quanto alta è la possibilità che quanto avvenuto si stia ripetendo.
I nuovi leak di Cambridge Analytica
La diffusione di documenti da parte dell’utente twitter Hindsight, appartenenti alla whistleblower Brittany Kaiser, ex dipendente di spicco di Cambridge Analytica, ha rivelato nuovi e inquietanti aspetti delle strategie di azione del gruppo SCL cui la società inglese era parte. La rete di infiltrazione delle campagne marketing a sfondo politico, notoriamente utilizzate nella campagna elettorale di Donald Trump, stando a quanto è possibile leggere dalle stesse mail, brochure e comunicazioni avvenute con membri politici di alto rango, sarebbe ben più estesa di quanto sinora si sarebbe potuto immaginare.
Non solo USA e Brexit, non solo Nigeria e Kenya (come rivelato dal The Guardian nell’inchiesta di marzo 2018), ma ben 68 nazioni sarebbero coinvolte nello scandalo, inclusi Brasile, Kenya, Iran e Ghana, come dimostrerebbero gli oltre 10.000 documenti che Hindsight ripromette di rendere pubblici nel corso dei mesi. Nulla di sorprendente alla luce delle dichiarazioni della stessa Kaiser, la quale aveva più volte annunciato come tutto fosse parte di una massiva operazione globale appositamente ideata per profilare, targettizzare e manipolare gli elettori di comune accordo con governi, servizi di intelligence, campagne elettorali e società commerciali, il tutto secondo tattiche illegali di raccolta dati (vendute, tuttavia, come perfettamente lecite ai potenziali clienti di Cambridge Analytica).
Ad oggi, i file diffusi online suggerirebbero, fra tutti, il coinvolgimento di Cambridge Analytica persino nella campagna elettorale condotta da UMNO (United Malays National Organisation), il partito del Primo Ministro Najib Razak, all’esplicito scopo di influenzare le votazioni di 14 collegi elettorali parlamentari nella 14° General Election del 2013 e riconquistare 13 seggi.
Il tutto muovendosi all’interno di una consistente “area grigia”, determinata da lacune nelle legislazioni nazionali ed internazionali, che consentirebbe a chiunque, ivi inclusi Stati e partiti politici, di acquistare set di dati anche per gli scopi più vari.
Come funziona il “neurotic” microtargeting
Ciò premesso, su quali basi si fonda il microtargeting messo in atto da Cambridge Analytica? Ed in che modo rende possibile la manipolazione degli elettori?
In parole semplici, il microtargeting rappresenta una modifica su larga scala delle pratiche commerciali tradizionali utilizzate nel direct marketing (call center, etc), attuata per il tramite di sofisticati database contenenti enormi quantità di dati, nello specifico di elettori. All’interno di tali database, contenenti tutti i dati relativi alle abitudini degli elettori (affiliazione ad un partito, il numero di volte che si è espresso il proprio voto, contributi e donazioni, attività di volontariato), si combinano ed elaborano anche numerose altre tipologie di dati, acquisiti da data brokers specializzati nella raccolta e commercializzazione di dati personali.
Le informazioni raccolte sono poi elaborate ed analizzate al fine di identificare quali problematiche assumono maggiore rilevanza per gli elettori e se un determinato utente possa identificarsi con gli ideali di uno o dell’altro partito politico. I gruppi di elettori, così individuati, vengono classificati e resi oggetto di pubblicità e messaggi, non solo online, costruiti ad hoc, che generano in questi ultimi delle reazioni emotive specifiche, le quali porteranno un utente ad allinearsi alle idee politiche del partito che, di volta in volta, avrà utilizzato le suddette tattiche di marketing.
Nello specifico, Cambridge Analytica utilizzava sia dati proprietari che dati estrapolati da Facebook, ricomprendenti persino i like espressi dagli utenti, per classificare gli elettori secondo categorie psicologiche, sulla base di un punteggio fondato su 5 tratti della personalità: apertura alle esperienze, coscienziosità, estroversione, piacevolezza, nevroticismo (openness to experience, conscientiousness, extraversion, agreeableness, neuroticism), per poi ideare delle pubblicità mirate per ciascuna delle classi elettorali così individuate.
Le pubblicità realizzate avevano quale obiettivo, di volta in volta, quello di promuovere le campagne elettorali del partito di turno stimolando e sensibilizzando gli elettori su temi caldi quale la sicurezza nazionale, sulla base delle reazioni “nevrotiche”, ossia del livello di preoccupazione e di ansia, delle speranze e delle paure dell’utenza in relazione a suddette tematiche.
Impatti e conseguenze del “neurotic marketing”
Sebbene ad oggi, dai documenti in nostro possesso, non si comprenda ancora pienamente quanto le già indicate strategie di marketing a scopo politico siano efficaci, se ne riconosce universalmente la crescente pericolosità, specie ove si pensi al sempre maggior valore che i dati personali assumono nell’attuale contesto economico, geo-politico e sociale globale.
La semplicità di raccolta dei dati da sottoporre ad elaborazione, la rapidità di diffusione degli ads, la difficoltà per i gestori delle piattaforme di controllare attentamente i contenuti che transitano sui social, unite alla mancanza di trasparenza nei confronti degli utenti ed al dilagare di pratiche illecite di compravendita di dati senza il consenso degli stessi, rendono, infatti, estremamente semplice per società quali Cambridge Analytica attuare strategie “grigie”.
Anche Antonello Soro, Presidente dell’Autorità Garante per la Protezione dei dati personali, ha più volte affermato come “attraverso la sempre maggiore conoscenza delle nostre propensioni, questi soggetti (Cambridge Analytica, nda) sono in grado di consigliarci sia il prodotto da comprare sia il partito da votare. (…) È chiara la sproporzione in termini di condizionamento di alcuni soggetti, attraverso la loro capacità di conoscere e raccogliere informazioni, notizie, suggerimenti su di noi mediante le piattaforme digitali. Fb potrebbe condizionare due miliardi di utenti e finire per indirizzare l’intera umanità”[1] .
A ciò si aggiunga la tendenza di società come Facebook di “tollerare” l’utilizzo dei dati dei propri utenti, come testimoniato da Andrew Bosworth, attualmente vicepresidente del settore realtà aumentata e realtà virtuale di Facebook, in un lungo e criticato memo nel quale riconosce che, nel 2015, la società di Zuckerberg sarebbe stata consapevole delle azioni di marketing che Cambridge Analytica stava attuando per mezzo del programma “Facebook Marketing Partner”, ma avrebbe sottostimato gli eventi, rendendosi “inconsciamente” complice (sebbene ciò sia stato smentito da documenti che avrebbero attestato l’esatto contrario, ossia la conoscenza del fatto che Cambridge Analytica stesse apertamente violando le Facebook Platform Policies, le quali vietavano la vendita di dati ottenuti dai social) dell’illecito utilizzo dei dati dei propri utenti da parte della società inglese e, conseguentemente, dello scandalo che ha portato la stessa Facebook a pesanti ritorsioni economiche e di immagine.
Eventi che, ad oggi, sembrerebbero essere ancora all’ordine del giorno: stando a quanto rivelato dalla Kaiser, molti degli ex dipendenti di Cambridge Analytica starebbero ancora lavorando a strategie di marketing politico miranti, sulla base dei medesimi dati originariamente estrapolati da Facebook, per mezzo di società neocostituite. Tra queste Emerdata, il cui core business è parimenti focalizzato sull’elaborazione dati, della quale fanno parte alcune delle originarie figure apicali di Cambridge Analytica.
È agli atti delle indagini anche l’avvenuta sottrazione, da parte dei dipendenti di Cambridge Analytica, di laptop e hard disk contenenti i dati utilizzati dalla società, sottoposti alla custodia degli amministratori della società, oltre all’accesso all’infrastruttura cloud della stessa. L’incapacità di impedire la diffusione dei dati e l’utilizzo degli stessi a scopi illeciti innalza così esponenzialmente il rischio di una nuova minaccia per la neutralità dell’opinione pubblica e per la libertà di pensiero politico.
Risulta evidente, dunque, come la situazione attuale non possa che peggiorare e che quanto già accaduto sia destinato a ripetersi, alla luce di azioni correttive da parte dei Governi e delle Autorità competenti non sufficienti ad arginare il fenomeno manipolatorio, tristemente intrecciato a eventi e soggetti politici. Dello stesso parere anche Christopher Steele, ex funzionario dell’MI6, i servizi segreti britannici, il quale sostiene che Cambridge Analytica abbia soltanto cambiato nome e che gli attori dello scandalo siano ancora all’opera, impuniti, ed anzi stiano adottando tecniche più avanzate per impedire che le proprie azioni vengano allo scoperto, persistendo la semplicità di violare la privacy degli elettori e di manipolarne le opinioni.
Come evitare che succeda ancora?
Quanto successo ci ha aperto gli occhi su una realtà ad altissimo rischio e di difficile controllo, la cui dimensione non si conosce. Il fatto che gli attori del fenomeno si muovano entro labili confini di legalità pone ancora di più l’attenzione sulla necessità, da parte dei legislatori globali e delle Authority, di realizzare azioni di contenimento tempestive che possano salvaguardare l’effettiva libertà di pensiero nell’ambito politico, di primaria importanza costituzionale, nelle more delle elezioni del 2020.
Un simile obiettivo, tuttavia, non risulta di facile realizzazione: la necessità di preservare la neutralità delle piattaforme e la libertà di pensiero e di espressione da strategie di marketing cui non si conoscono gli esatti confini, si scontra con limiti tecnici (legati all’analisi delle meccaniche di sottrazione, elaborazione e utilizzo dei dati senza che l’utente ne sia adeguatamente informato o abbia fornito il relativo consenso) e normativi (legati all’individuazione dei confini di liceità di una determinata azione od omissione).
A parere della Kaiser, le problematiche principali risiedono proprio nella natura opzionale delle attuali linee guida, non sufficienti a contenere il fenomeno, rendendosi necessario un intervento radicale a livello legislativo, che detti dei requisiti minimi uguali per tutti e parametrati sulle odierne tecnologie di elaborazione dati. Nel mentre, le piattaforme social dovrebbero preservare sé stesse con azioni a monte, che impediscano alle società di pubblicare ads a sfondo politico, ove non fosse possibile arginare il fenomeno con altre soluzioni.
- Intervista ad Antonello Soro, Presidente del Garante per la protezione dei dati personali, di Francesco Pacifico, “Il Mattino”, 20 marzo 2018 ↑