Non so chi abbia inventato il termine computational politics, che possiamo tradurre come politica computazionale o informatica politica – entrambe espressioni orrende, pertando preferisco usare quella inglese. Appare intorno al 2014, più o meno quando viene pubblicato un articolo della studiosa americana di origine turca Zeynep Tufekci (Engineering the public: Big data, surveillance and computational politics). Nell’articolo la Tufekci prende in esame l’impatto delle tecnologie digitali nel decision making politico, ed in particolare analizza come queste tecnologie possono essere utilizzate attivamente per influenzare l’opinione pubblica, ovvero, per usare un termine moderno, per ingegnerizzare il pubblico.
I mezzi di comunicazione broadcast – come la televisione – costituiscono un metodo potente per influenzare l’opinione pubblica, ma hanno un grave difetto: lavorano sulle medie, su grandi categorie in cui le opinioni dei singoli si perdono. L’individuo diventa membro di una categoria rilevante a fini statistici, dopodiché si lavora per portare il messaggio alla categoria in modo efficace, perdendolo di vista.
Al contrario, le metodologie analitiche che vengono oggi impiegate per analizzare il comportamento degli utenti della rete permettono di nuovo di mettere l’individuo al centro del messaggio (che può essere commerciale, nella maggioranza dei casi, ma perché non politico?). Una famosa vignetta del New Yorker di molti anni fa ritraeva un cane davanti ad un computer, con il celebre slogan On the internet, nobody knows you’re a dog (In rete, nessuno sa che sei un cane): un modo per sottolineare come la rete ci renda tutti uguali e indistinguibili. Bene, forse questa era la rete di ieri o di l’altro ieri, non certo la rete di oggi, caratterizzata da strumenti analitici che permettono di studiare il comportamento di ogni singolo utente allo scopo di portargli messaggi pubblicitari personalizzati (avete presente quando cercate di acquistare un paio di scarpe su Amazon, e poi vi trovate la pubblicità delle scarpe su Facebook?). Una variante recente della vignetta del New Yorker mostra una persona davanti al computer, e dietro i suoi due cani che commentano Ti ricordi quando una volta in rete nessuno sapeva che eravamo cani? Oggi gli advertiser sanno che sei un cane, di che razza e anche la marca dei tuoi croccantini preferiti.
Chi scrive non è minimamente preoccupato dall’utilizzo di queste metodologie a scopo pubblicitario. Dopotutto se cerco di comprare scarpe, perché mostrarmi pubblicità di canne da pesca? Se sono vegetariano, perché mostrarmi pubblicità, ad esempio, di alimenti che non mangerò mai? Il problema nasce quando queste tecnologie analitiche vengono applicate alla politica, e non solo e non tanto per un problema di privacy, quanto per un problema di targeting del messaggio politico che può ampliare il divario fra le opinioni del pubblico, accentuare la polarizzazione e dunque gli estremismi e creare bolle, comunità omogenee, estreme o facilmente radicalizzabili, diminuendo grandemente le opportunità di confronto politico con l’altro.
La Tufekci individua sei fattori nel processo di quello che lei chiama, come abbiamo detto, ingegnerizzazione del pubblico. Il primo consiste nel fatto che l’utilizzo di tecnologie digitali pressoché ovunque rende disponibili una enorme quantità di dati sul comportamento e la vita quotidiana di tutti, dati che sono disponibili alle organizzazioni che si possono permettere di raccoglierli ed analizzarli – qua la parola chiave è Big Data, concetto stra-abusato sul quale sono stati scritti fiumi di inchiostro e sono stati fatti convegni su convegni, peraltro.
Il secondo fattore consiste nel fatto che esistono oramai le risorse computazionali che permettono di analizzare tali dati andando oltre aggregazioni fatte per tipologie più o meno grossolane di utenza, ma mettendo a fuoco il comportamento dei singoli individui. Da una parte si tratta di pure e semplici risorse di calcolo, di potenza di fuoco computazionale, accompagnata da una capacità di storage senza precedenti; ma dall’altra si tratta anche di nuove metodologie matematiche e statistiche, di nuove teorie delle reti sociali sempre più basate su modelli matematici complessi il cui studio è reso possibile grazie alle risorse computazionali di cui sopra.
Tutto questo (terzo fattore) accade senza che vengano messe in campo le classiche metodologie statistiche basate sul polling, sull’interpellare cioè un campione aleatorio di utenti a cui far domande, domande alle quali gli utenti rispondono consapevolmente e tipicamente riflettendoci sopra. La raccolta di informazioni è opaca e fatta su utenti inconsapevoli. La quantità di informazioni che possono essere estratte da dati apparentemente innocenti è notevole: un articolo oramai famoso di M. Kosinski et al. all’epoca all’Università di Cambridge (Private traits and attributes are predictable from digital records of human behavior, Proceedings of the National Academy of Sciences of the United States of America vol. 110, no. 15, p. 5802-5805, 2013) mostra come utilizzando solo i like su Facebook di un campione di circa 58 mila volontari è possibile individuare la posizione dell’individuo rispetto a scelte dicotomiche con una precisione straordinaria: l’orientamento sessuale nell’88% dei casi maschili e nel 75% di quelli femminili, la razza (bianco o afroamericano) nel 95% dei casi, l’orientamento politico (negli USA: quindi democratici o repubblicani) nell’85% dei casi, quello religioso (cristiano o musulmano) nell’82% dei casi. Possiamo facilmente immaginare come aggiungendo altri dati si possa ottenere una precisione di gran lunga maggiore.
È sulla base delle ricerche di Kosinski e colleghi che si basa buona parte delle attività di Cambridge Analytica, una società privata che utilizza i dati raccolti da social network e più in generale dal web per mettere a punto la comunicazione politica dei suoi clienti (Trump negli USA, i sostenitori della Brexit nel Regno Unito); società che si chiama in questo modo perché ha assunto molte persone che provenivano appunto dall’Università di Cambridge. «Siamo in grado di ricostruire la personalità di ogni adulto che vive negli Stati Uniti, un 230 milioni di persone» sulla base di 4 – 5 mila dati per ogni individuo, ha affermato Alexander Nix, il CEO di Cambridge Analytica in un’intervista a Sky News (Behind the scenes at Donald Trump’s UK digital war room, Sky News, 22 Oct 2016). Steve Bannon sedeva nel Board di Cambridge Analytica.
Inoltre, se la filosofia politica tradizionale si è sempre basata su una visione idealizzata dell’uomo come attore razionale che agisce sulla base dei propri interessi, i progressi delle scienze del comportamento rendono possibile conoscere con maggior precisione le motivazioni che spingono gli individui a comportarsi in un modo o nell’altro, spinti da forze non sempre necessariamente razionali. Questo permette di mettere a frutto le messe di dati analitici raccolti (che riguarda la pancia che la ragione del pubblico per i motivi detti sopra) per influenzare le opinioni nel senso desiderato (e siamo a quattro).
Quinto, tutto questo può essere verificato e messo a punto in tempo reale: i dati analitici cambiano e possono essere analizzati dinamicamente, consentendo di modificare una campagna d’opinione man mano che questa procede.
Infine, se una volta il dibattito politico avveniva nelle piazze, o nei bar, non mediato da piattaforme, oggi tale dibattito avviene nella gran maggioranza dei casi su piattaforme online – da social network a blog – dove in genere sono degli algoritmi, spesso opachi, a scegliere quali sono le informazioni che hanno maggiore visibilità.
L’impatto di tutto ciò sul futuro del discorso politico è potenzialmente enorme, e sicuramente deve essere ancora compreso a fondo. Se per studiosi come la Tufekci si tratta di mutamenti sostanziali, e per altri le grandi questioni politiche del futuro saranno decise da motori di intelligenza artificiale che gestiscono campagne online (B. Anderson, B. Horvath, The Rise of the Weaponized AI Propaganda Machine, 9 Feb 2017), alcuni commentatori mantengono un atteggiamento più cauto: i Big Data li hanno utilizzati tutti, anche Obama nella campagna del 2012, anche la Clinton che ha perso ed anche Ted Cruz (peraltro sempre con il supporto di Cambridge Analytica) che ha perso le primarie repubblicane (N. Confessore, D. Hakim, Data Firm Says ‘Secret Sauce’ Aided Trump; Many Scoff, New York Times 6 Mar 2017; L. Bershidsky, No, Big Data Didn’t Win the U.S. Election, Bloomberg View 8 Dec 2016). A questo si potrebbe obiettare che se tutti utilizzano queste metodologie, vince chi le utilizza meglio visto che comunque un solo vincitore alla fine deve restare.
La disruption del digitale è insomma arrivata anche nel mondo della politica, e la minimizzazione, del tono “Fake News ci sono sempre state” non è una strategia valida, ma solo un modo di nascondere la testa sotto la sabbia nella speranza che il potere salvifico del digitale risolva tutti i problemi da solo – anche se l’etichetta Fake News con la quale il fenomeno viene tipicamente archiviato è infelice e fuorviante. L’esperienza di altre forme di disruption portate dalle tecnologie digitali ci suggerisce che non è così. L’utilizzo sistematico di strategie di disinformazione basate su metodologie digitali da parte di attori internazionali portatori di una strategia consapevole poi apre ulteriori scenari inquietanti, ma questo è un altro discorso.